Pesquisa da Apple mostra falha crítica em sistemas avançados de IA

Mão estendida em primeiro plano segurando uma representação digital iluminada das letras “AI”, sigla em inglês para inteligência artificial, com circuitos eletrônicos visíveis no interior das letras. Ao fundo, luzes desfocadas coloridas criam um ambiente noturno urbano. A imagem simboliza o desenvolvimento e o avanço da inteligência artificial. (desenvolvimento, desenvolve, pesquisa, apple)

Pesquisadores da Apple identificaram “limitações fundamentais” em modelos de inteligência artificial de ponta ao enfrentarem tarefas altamente complexas. O estudo foi publicado nesta segunda-feira (9), revelando que os Modelos de Raciocínio Amplo (LRMs) sofrem um “colapso completo de precisão” quando confrontados com problemas mais elaborados.

O documento, divulgado inicialmente no último fim de semana, demonstra que modelos convencionais de IA superaram os LRMs em tarefas simples, enquanto ambos experimentaram um “colapso completo” ao serem expostos a desafios mais complexos. Conforme reportado pelo The Guardian, esta pesquisa levanta questões importantes sobre os limites atuais da inteligência artificial e suas aplicações práticas.

Os especialistas da Apple testaram diversos sistemas avançados, incluindo o o3 da OpenAI, o Gemini Thinking do Google, o Claude 3.7 Sonnet-Thinking da Anthropic e o DeepSeek-R1. Os testes foram realizados nos Estados Unidos, onde a empresa mantém seus principais centros de pesquisa em IA.

Leia também: EF aposta em tutor com IA para acelerar aprendizado de inglês no Brasil

A equipe descobriu que, ao se aproximarem de um limite crítico, os modelos paradoxalmente começam a reduzir seu esforço cognitivo. “Ao se aproximar de um limiar crítico – que corresponde de perto ao seu ponto de colapso de precisão – os modelos contraintuitivamente começam a reduzir seu esforço de raciocínio apesar do aumento da dificuldade do problema”, aponta o estudo, classificando esse comportamento como “particularmente preocupante”.

Os pesquisadores utilizaram quebra-cabeças como a Torre de Hanói e problemas de Travessia de Rio para avaliar o desempenho dos sistemas. Mesmo quando fornecido um algoritmo que resolveria o problema, os modelos falharam em casos mais difíceis.

O documento indica uma “limitação fundamental de escala nas capacidades de pensamento dos modelos de raciocínio atuais”. Ainda não está claro se esses resultados se aplicariam a outros tipos de tarefas além dos quebra-cabeças testados.

Andrew Rogoyski, do Instituto de IA Centrada em Pessoas da Universidade de Surrey, afirmou que o estudo sinaliza que a indústria ainda está “tateando” em relação à Inteligência Artificial Geral (AGI). “A descoberta de que os grandes modelos de raciocínio perdem o rumo em problemas complexos, enquanto têm bom desempenho em problemas de complexidade média e baixa, implica que estamos em um potencial beco sem saída nas abordagens atuais”, declarou.

Gary Marcus, acadêmico americano conhecido por sua cautela sobre as capacidades da IA, descreveu o artigo como “bastante devastador”. Ele acrescentou: “Qualquer pessoa que pense que os LLMs são uma rota direta para o tipo de AGI que poderia transformar fundamentalmente a sociedade para o bem está enganando a si mesma.”

O documento conclui que as abordagens atuais podem estar encontrando barreiras fundamentais. “Essas percepções desafiam suposições prevalecentes sobre as capacidades dos LRMs e sugerem que as abordagens atuais podem estar encontrando barreiras fundamentais para o raciocínio generalizável”, afirma o estudo.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!