OpenAI, Anthropic e DeepMind: carta assinada por profissionais alerta para perigos da IA

Uma carta assinada por profissionais que já atuaram ou atuam com inteligência artificial (IA), incluindo da OpenAI, Anthropic e DeepMind do Google, alerta para os perigos da IA para a humanidade. Em uma nova carta pública, divulgada nesta terça-feira (4), os profissionais pedem que as corporações sejam mais transparentes e responsáveis.
“Somos atuais e ex-funcionários de empresas pioneiras de IA e acreditamos no potencial da tecnologia de IA para proporcionar benefícios sem precedentes à humanidade”, diz a carta. “Também compreendemos os graves riscos que estas tecnologias representam. Esses riscos vão desde o aprofundamento das desigualdades existentes, à manipulação e desinformação, até à perda de controle de sistemas autônomos de IA, resultando potencialmente na extinção humana. As próprias empresas de IA reconheceram esses riscos, assim como governos em todo o mundo e outros especialistas em IA”.
Leia também: Risco de ciberataques pioram saúde mental de 66% dos profissionais de TI
A carta surge em um momento em que a mãe do ChatGPT, a OpenAI, enfrenta um êxodo de especialistas em segurança, como Daniel Kokotajlo, ex-membro da equipe de governança, Ilya Sutskever, ex-cientista-chefe, Jan Leike, ex-pesquisador de segurança, e Gretchen Krueger, ex-pesquisadora de políticas de IA, que criticam, entre outras coisas, a falta de priorização da segurança pela empresa, especialmente no contexto do desenvolvimento e lançamento de produtos de IA. Ex-membros do Conselho como Helen Toner e Tasha McCauley também questionam a capacidade da OpenAI de se autorregular.
“Perdi a esperança de que eles agiriam de forma responsável, principalmente porque buscam inteligência artificial geral”, disse Kokotajlo.
Em uma entrevista recente a um podcast, Toner disse que Sam Altman, CEO da OpenAI, deu “informações imprecisas sobre o pequeno número de processos formais de segurança que a empresa tinha em vigor”. Segundo a ex-membro do conselho da empresa, isso “significa que era basicamente impossível para o conselho saber o quão bem esses processos de segurança estavam funcionando”, disse ela ao TED AI Show em maio.
Na carta, os 13 profissionais que a assinam “apelam” às empresas que se comprometam com alguns princípios, incluindo a criação de um canal anônimo de denúncias; a promoção de uma cultura de crítica aberta; a proteção contra retaliação; e a priorização da segurança. O objetivo é garantir que os produtos e tecnologias de IA sejam desenvolvidos e utilizados de forma responsável, com foco na segurança e na proteção dos usuários.
A carta ainda é endossada por figuras proeminentes da IA, como Yoshua Bengio, Geoffrey Hinton e Stuart Russell.
*Com informações do The Washington Post
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!