Google, Meta e OpenAI firmam compromisso para identificar conteúdos gerados por Inteligência Artificial, diz governo dos EUA


Uma das medidas pode ser a inserção de marcas d’água em textos, imagens, áudios e vídeos. O presidente Joe Biden recebe, nesta sexta-feira (21), executivos de empresas de tecnologia na Casa Branca. Site do ChatGPT, um chatbot de IA da OpenAI
Florence Lo/Illustration/ Reuters
As principais empresas de Inteligência Artificial (IA), como a OpenAI, Google e Meta, assumiram compromissos com a Casa Branca para implementar medidas que identifiquem o conteúdo gerado por IA, informou o governo dos Estados Unidos, nesta sexta-feira (21).
O presidente Joe Biden recebe, nesta sexta-feira (21), executivos de empresas de tecnologia.
As medidas podem incluir, por exemplo, a inserção de marcas d’água em textos, imagens, áudios e vídeos gerado por IA.
As empresas – que também incluem a Anthropic, Inflection e Amazon – se comprometeram a testar os sistemas antes de lançá-los e compartilhar informações sobre como reduzir riscos e investir em segurança cibernética.
A medida é vista como uma vitória do governo Biden para regulamentar tecnologias de inteligência artificial, que experimentou recentemente um boom de investimentos das empresas.
Bard, o ‘ChatGPT do Google’, é lançado no Brasil
Regulação nos EUA
Desde que a IA se popularizou no mundo, especialmente após o surgimento do ChatGPT, legisladores de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia.
O líder do Senado nos EUA, Chuck Schumer, pediu em junho uma “legislação abrangente” para avançar e garantir salvaguardas para a inteligência artificial.
O Congresso está considerando um projeto de lei para exigir que anúncios políticos revelem se a IA foi usada para criar imagens ou outro conteúdo.
O presidente Joe Biden também está trabalhando no desenvolvimento de uma ordem executiva e legislação bipartidária sobre tecnologia de IA.
Sistema para ‘marca d’água’
Como parte do esforço, as empresas se comprometeram a desenvolver um sistema de “marca d’água” que deve ser usado em diferentes formas de conteúdo, desde texto, imagens, áudios e até vídeos gerados por IA, para que os usuários saibam quando a tecnologia foi usada.
Essa marca d’água, provavelmente, tornará mais fácil para os usuários identificar imagens ou áudios deep-fake que podem, por exemplo, mostrar um ato de violência que não ocorreu, criar um golpe ou distorcer uma foto de um político.
Não está claro como a marca d’água ficará evidente no compartilhamento das informações.
As empresas também se comprometeram a se concentrar em proteger a privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia não seja usada para discriminar grupos vulneráveis.
Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.
Robô personal stylist é mais uma promessa da inteligência artificial
Fato ou Fake: saiba o que é verdade e mentira sobre inteligência artificial