IA generativa: EUA e China dão os primeiros passos para regulamentação

Embora os Estados Unidos e a China sejam rivais ferozes no comércio de tecnologia, eles parecem compartilhar algo novo em comum: preocupações sobre a responsabilidade e o possível uso indevido da IA generativa. Na terça-feira, os governos de ambos os países emitiram anúncios relacionados aos regulamentos para o desenvolvimento de IA.

A Administração Nacional de Telecomunicações e Informações (NTIA), uma filial do Departamento de Comércio dos Estados Unidos, fez uma solicitação pública formal de contribuições sobre quais políticas devem moldar um ecossistema de responsabilidade de IA.

Isso inclui questões sobre acesso a dados, medição de responsabilidade e como as abordagens à IA podem variar em diferentes setores da indústria, como emprego ou assistência médica.

Comentários por escrito em resposta à solicitação devem ser fornecidos à NTIA até 10 de junho de 2023, 60 dias a partir da data de publicação no Federal Register.

Leia mais: Inglês é habilidade chave para avançar na carreira de TI

A notícia chega no mesmo dia em que a Administração do Ciberespaço da China (CAC) divulgou uma série de medidas preliminares para o gerenciamento de serviços de IA generativa, incluindo a responsabilização dos provedores pela validação dos dados usados para treinar ferramentas de IA generativa.

A CAC disse que os provedores devem ser responsáveis pela validade dos dados usados para treinar ferramentas de IA e que medidas devem ser tomadas para evitar a discriminação ao projetar algoritmos e conjuntos de dados de treinamento, de acordo com um relatório da Reuters. As empresas também serão obrigadas a enviar avaliações de segurança ao governo antes de lançar suas ferramentas de IA ao público.

Se conteúdo impróprio for gerado por suas plataformas, as empresas devem atualizar a tecnologia em até três meses para evitar que conteúdo semelhante seja gerado novamente, de acordo com o projeto de regras. O descumprimento das regras resultará em multas para os fornecedores, suspensão dos serviços ou investigações criminais.

Leia também: Pausar o desenvolvimento da IA generativa é uma ideia tola

Qualquer conteúdo gerado por IA generativa deve estar alinhado com os principais valores socialistas do país, disse a CAC.

Os gigantes da tecnologia da China têm o desenvolvimento da IA bem encaminhado. O anúncio da CAC foi feito no mesmo dia em que o Alibaba Cloud anunciou um novo modelo de linguagem grande, chamado Tongyi Qianwen, que será lançado como um front-end no estilo ChatGPT para todos os seus aplicativos de negócios. No mês passado, outro gigante chinês de serviços de internet e IA, o Baidu, anunciou uma alternativa ao ChatGPT em chinês, o bot Ernie.

Regulação de IA x Inovação

Embora o governo chinês tenha estabelecido um conjunto claro de diretrizes regulatórias, outros governos ao redor do mundo estão adotando uma abordagem diferente.

No mês passado, o governo do Reino Unido disse que, para “evitar uma legislação pesada que poderia sufocar a inovação”, optou por não atribuir a responsabilidade pela governança da IA a um novo regulador único, em vez disso, pediu aos reguladores existentes que apresentassem suas próprias abordagens que melhor se adequam à maneira como a IA está sendo usada em seus setores.

No entanto, essa abordagem foi criticada por alguns, com especialistas do setor argumentando que as estruturas existentes podem não ser capazes de regular a IA de forma eficaz devido à natureza complexa e multifacetada de algumas ferramentas de IA, o que significa que a fusão entre diferentes regimes será inevitável.

Veja também: Devemos temer o surgimento de uma inteligência artificial geral?

Além disso, o regulador de dados do Reino Unido emitiu um aviso às empresas de tecnologia sobre a proteção de informações pessoais ao desenvolver e implantar modelos de IA generativa em linguagem ampla, enquanto o regulador de privacidade de dados da Itália proibiu o ChatGPT por supostas violações de privacidade. Um grupo de 1.100 líderes de tecnologia e cientistas também pediu uma pausa de seis meses no desenvolvimento de sistemas mais poderosos do que o recém-lançado GPT-4 da OpenAI.

Quando se trata de regulamentação e inovação tecnológica, há um certo caminho natural que a maioria dos governos ou legisladores costuma seguir, disse Frank Buytendijk, Analista do Gartner.

“Quando há uma nova tecnologia no mercado, aprendemos a usá-la com responsabilidade cometendo erros”, disse ele. “É onde estamos agora com a IA”.

Veja mais: Como a inteligência artificial pode ajudar a encontrar novos funcionários

Depois disso, disse Buytendijk, a regulamentação começa a surgir – permitindo que desenvolvedores, usuários e sistemas jurídicos aprendam sobre o uso responsável por meio da interpretação da lei e da jurisprudência – seguida pela fase final, na qual tecnologias com uso responsável são integradas.

“Aprendemos sobre o uso responsável por meio dessas práticas recomendadas incorporadas, portanto, é um processo”, disse Buytendijk.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!