Protocolo de segurança da OpenAI é alvo de críticas

Sam Altman, CEO da OpenAI. Imagem: Shutterstock

Recentemente, a OpenAI tem enfrentado críticas sobre seus protocolos de segurança. Funcionários têm manifestado sérias preocupações na imprensa sobre a segurança na organização de pesquisa, que é avaliada em 80 bilhões de dólares.

A última denúncia veio do The Washington Post, onde uma fonte anônima alegou que a OpenAI apressou os testes de segurança e comemorou o lançamento de seu produto antes de garantir sua segurança.

“Eles planejaram a festa de lançamento antes de saber se era seguro lançar”, disse um funcionário anônimo ao The Washington Post. “Basicamente, falhamos no processo.” Essa crítica se soma a uma série de outras, ressaltando uma constante preocupação com a segurança dentro da empresa.

Para agravar a situação, funcionários atuais e antigos assinaram recentemente uma carta aberta exigindo melhores práticas de segurança e transparência da startup. Isso ocorreu pouco depois de sua equipe de segurança ser dissolvida, após a saída do cofundador Ilya Sutskever. A saída de Jan Leike, um pesquisador chave da OpenAI, também reforçou essas críticas. Ele afirmou que “a cultura e os processos de segurança foram deixados de lado em favor de produtos chamativos” na empresa.

A segurança é central na carta de princípios da OpenAI, que inclui uma cláusula afirmando que a organização ajudará outras instituições a avançar na segurança se a inteligência artificial geral (AGI) for alcançada por um concorrente. Contudo, as advertências sugerem que a segurança tem sido negligenciada, apesar de ser fundamental para a cultura e a estrutura da empresa.

A OpenAI afirma estar dedicada a resolver os problemas de segurança inerentes a um sistema tão grande e complexo, mantendo seus modelos proprietários privados, em vez de abertos, por razões de segurança.

Em resposta às críticas, a porta-voz da OpenAI, Taya Christianson, afirmou ao The Verge: “Estamos orgulhosos de nosso histórico em fornecer os sistemas de IA mais capazes e seguros e acreditamos em nossa abordagem científica para lidar com os riscos”. Ela acrescentou que “o debate rigoroso é crucial, dado o significado desta tecnologia, e continuaremos a nos engajar com governos, sociedade civil e outras comunidades ao redor do mundo em prol de nossa missão.” No entanto, tais declarações não parecem suficientes para conter as preocupações internas e externas.

As questões de segurança em torno da IA, segundo estudiosos da tecnologia emergente, são imensas. Um relatório encomendado pelo Departamento de Estado dos EUA em março deste ano afirmou que “o desenvolvimento atual da IA de ponta representa riscos urgentes e crescentes para a segurança nacional”. Esse relatório comparou o potencial desestabilizador da AGI à introdução de armas nucleares, ressaltando a gravidade dos riscos envolvidos.

Se as numerosas alegações contra os protocolos de segurança da empresa forem precisas, isso certamente levanta sérias questões sobre a aptidão da OpenAI para este papel como guardiã da AGI, um papel que a organização essencialmente atribuiu a si mesma. Permitir que um grupo em São Francisco controle uma tecnologia potencialmente transformadora para a sociedade é motivo de preocupação. Há uma demanda urgente, até mesmo dentro de suas próprias fileiras, por transparência e segurança agora mais do que nunca.

*Com informações do The Verge

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!