Criadores do ChatGPT e outros líderes querem reduzir risco de extinção global da IA

*Este artigo foi originalmente publicado em 30 de maio de 2023

Centenas de líderes da indústria de tecnologia, acadêmicos e outras figuras públicas assinaram uma carta aberta alertando que a evolução da inteligência artificial (IA) pode levar a um evento de extinção e argumentando que o controle da tecnologia deve ser uma prioridade global.

“Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, aponta o documento publicado pelo Center for AI Safety, com sede em São Francisco.

A breve declaração na carta soa quase como um mea culpa pela tecnologia a cerca da qual criadores agora estão se unindo para alertar o mundo.

Ironicamente, os signatários mais proeminentes no topo da carta incluíam Sam Altman, CEO da OpenAI, a empresa que criou o popular chatbot de inteligência artificial ChatGPT, bem como Kevin Scott, CTO da Microsoft, o maior investidor da OpenAI. Vários fundadores e executivos da OpenAI também se juntaram a executivos, engenheiros e cientistas do laboratório de pesquisa de IA do Google, DeepMind.

Leia mais: Autoridades da União Europeia discutirão leis de IA com CEO da OpenAI em junho

Geoffrey Hinton, considerado o pai da IA por suas contribuições para a tecnologia nos últimos 40 anos, também assinou a carta de hoje. Durante uma sessão de perguntas e respostas no MIT no início deste mês, Hinton chegou a dizer que os humanos nada mais são do que uma fase passageira no desenvolvimento da IA. Ele também afirmou que era perfeitamente razoável nos anos 70 e 80 pesquisar sobre redes neurais artificiais. Mas a tecnologia de hoje é como se engenheiros tivessem decidido melhorar ursos pardos geneticamente, permitindo que eles falassem inglês e melhorando seus “QIs para 210”.

Hinton, no entanto, disse que não se arrepende de ter sido fundamental na criação da IA. “Não era algo previsível – esta fase não era previsível. Até muito recentemente, eu achava que essa crise existencial estava muito longe. Então, eu realmente não me arrependo do que fiz”, disse Hinton.

No início deste mês, os líderes das nações do G7 pediram a criação de padrões técnicos para manter a inteligência artificial (IA) sob controle, dizendo que a IA ultrapassou a supervisão de segurança e proteção. As audiências no Senado dos Estados Unidos, no início deste mês, que incluíram o testemunho de Altman, da OpenAI, também ilustraram muitos perigos claros e presentes que emergem da evolução da IA.

“A declaração assinada pelo Center for AI Safety é realmente sinistra e sem precedentes na indústria de tecnologia. Quando você já ouviu falar de empreendedores de tecnologia dizendo ao público que a tecnologia na qual estão trabalhando pode acabar com a raça humana se não for controlada?”, disse Avivah Litan, Vice-Presidente e Analista Distinto do Gartner. “No entanto, eles continuam trabalhando nisso por causa das pressões competitivas”.

Enquanto um terciário para extinção, Litan também apontou que as empresas também enfrentam riscos “de curto prazo e iminentes” do uso da IA. “Eles envolvem riscos de informações erradas e desinformação e o potencial de ataques cibernéticos ou manipulações sociais que escalam muito mais rapidamente do que vimos na última década com as mídias sociais e o comércio on-line”, disse ela. “Esses riscos de curto prazo podem facilmente sair do controle se não forem controlados”.

Leia também: Prepare-se para IA generativa com experimentação e diretrizes claras

Os riscos de curto prazo apresentados pela IA podem ser tratados e mitigados com proteções e soluções técnicas. Os riscos existenciais de longo prazo podem ser tratados por meio de cooperação e regulamentação governamental internacional, observou ela.

“Os governos estão se movendo muito lentamente, mas a inovação e as soluções técnicas – sempre que possível – estão se movendo na velocidade da luz, como seria de esperar”, disse Litan. “Então, ninguém sabe o que está por vir”.

A carta da última terça-feira (30) segue uma semelhante lançada em março pelo Future of Life Institute. Aquela carta, assinada pelo cofundador da Apple, Steve Wozniak, pelo CEO da SpaceX, Elon Musk, e quase 32.000 outros, pedia uma pausa de seis meses no desenvolvimento do ChatGPT para permitir que melhores controles fossem implementados.

A carta de março pedia supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará.

Veja mais: Inteligência artificial: me ajude a te ajudar

Dan Hendrycks, Diretor do Center for AI Safety, escreveu em uma thread no Twitter que existem “muitas maneiras pelas quais o desenvolvimento de IA pode dar errado, assim como as pandemias podem vir de má administração, sistemas de saúde pública deficientes, vida selvagem e etc. Considere compartilhar seus pensamentos iniciais sobre o risco de IA com um tópico ou postagem no Twitter para ajudar a iniciar a conversa e para que possamos explorar coletivamente essas fontes de risco”.

Hendrycks também citou Robert Oppenheimer, físico teórico e pai da bomba atômica: “Sabíamos que o mundo não seria o mesmo”. Hendrycks, no entanto, não mencionou que a bomba atômica foi criada para impedir a tirania que o mundo enfrentava devido ao domínio das potências do Eixo na Segunda Guerra Mundial.

O Center for AI Safety é uma organização de pesquisa sem fins lucrativos com sede em São Francisco, cuja missão declarada é “garantir o desenvolvimento e a implantação segura da IA”.

“Acreditamos que a inteligência artificial tem o potencial de beneficiar profundamente o mundo, desde que possamos desenvolvê-la e usá-la com segurança”, afirma a página do grupo na web.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!