OpenAI e Anthropic irão compartilhar seus modelos com governo dos EUA

IA, Inteligência Artificial, IA, gigantes, generativa, empresa, startups, gestão, OpenAI Anthropic

Nesta quinta-feira (28), OpenAI e Anthropic assinaram acordos com o Instituto de Segurança de IA dos Estados Unidos para permitir o acesso antecipado e contínuo aos seus novos modelos de inteligência artificial. Esses acordos visam aprimorar a segurança dos modelos e avaliar os riscos associados. O instituto é associado ao Instituto Nacional de Padrões e Tecnologia (NIST), do Departamento de Comércio dos Estados Unidos.

O governo pretende usar essa colaboração para aprimorar a segurança dos modelos, fornecendo feedback sobre possíveis melhorias, em parceria com o instituto britânico correspondente. Elizabeth Kelly, diretora do instituto, destacou que os novos acordos representam um marco importante na evolução responsável da tecnologia.

Este movimento ocorre em um momento que legisladores em várias jurisdições discutem regulamentações para a tecnologia sem sufocar a inovação.

Leia mais: ANPD aprova uso de dados de brasileiros pela Meta para treinamento de IA

Recentemente, a Califórnia aprovou a Lei de Inovação Segura e Protegida para Modelos de Inteligência Artificial de Fronteira (SB 1047), que exige que as empresas de IA no estado adotem medidas de segurança específicas.

Esta legislação, que ainda aguarda a assinatura do governador Gavin Newsom, tem gerado controvérsia entre as empresas de IA, incluindo OpenAI e Anthropic, que alertam sobre possíveis impactos negativos para desenvolvedores menores de código aberto.

Enquanto isso, a administração do presidente Joe Biden tem buscado compromissos voluntários de grandes empresas para reforçar a segurança da IA. Diversas companhias assumiram compromissos não vinculativos para investir em cibersegurança, pesquisa sobre discriminação e desenvolvimento de métodos de marcação para conteúdo gerado por IA.

*Com informações do The Verge

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!