Pesquisa da Apple mostra falha crítica em sistemas avançados de IA

Pesquisadores da Apple identificaram “limitações fundamentais” em modelos de inteligência artificial de ponta ao enfrentarem tarefas altamente complexas. O estudo foi publicado nesta segunda-feira (9), revelando que os Modelos de Raciocínio Amplo (LRMs) sofrem um “colapso completo de precisão” quando confrontados com problemas mais elaborados.
O documento, divulgado inicialmente no último fim de semana, demonstra que modelos convencionais de IA superaram os LRMs em tarefas simples, enquanto ambos experimentaram um “colapso completo” ao serem expostos a desafios mais complexos. Conforme reportado pelo The Guardian, esta pesquisa levanta questões importantes sobre os limites atuais da inteligência artificial e suas aplicações práticas.
Os especialistas da Apple testaram diversos sistemas avançados, incluindo o o3 da OpenAI, o Gemini Thinking do Google, o Claude 3.7 Sonnet-Thinking da Anthropic e o DeepSeek-R1. Os testes foram realizados nos Estados Unidos, onde a empresa mantém seus principais centros de pesquisa em IA.
Leia também: EF aposta em tutor com IA para acelerar aprendizado de inglês no Brasil
A equipe descobriu que, ao se aproximarem de um limite crítico, os modelos paradoxalmente começam a reduzir seu esforço cognitivo. “Ao se aproximar de um limiar crítico – que corresponde de perto ao seu ponto de colapso de precisão – os modelos contraintuitivamente começam a reduzir seu esforço de raciocínio apesar do aumento da dificuldade do problema”, aponta o estudo, classificando esse comportamento como “particularmente preocupante”.
Os pesquisadores utilizaram quebra-cabeças como a Torre de Hanói e problemas de Travessia de Rio para avaliar o desempenho dos sistemas. Mesmo quando fornecido um algoritmo que resolveria o problema, os modelos falharam em casos mais difíceis.
O documento indica uma “limitação fundamental de escala nas capacidades de pensamento dos modelos de raciocínio atuais”. Ainda não está claro se esses resultados se aplicariam a outros tipos de tarefas além dos quebra-cabeças testados.
Andrew Rogoyski, do Instituto de IA Centrada em Pessoas da Universidade de Surrey, afirmou que o estudo sinaliza que a indústria ainda está “tateando” em relação à Inteligência Artificial Geral (AGI). “A descoberta de que os grandes modelos de raciocínio perdem o rumo em problemas complexos, enquanto têm bom desempenho em problemas de complexidade média e baixa, implica que estamos em um potencial beco sem saída nas abordagens atuais”, declarou.
Gary Marcus, acadêmico americano conhecido por sua cautela sobre as capacidades da IA, descreveu o artigo como “bastante devastador”. Ele acrescentou: “Qualquer pessoa que pense que os LLMs são uma rota direta para o tipo de AGI que poderia transformar fundamentalmente a sociedade para o bem está enganando a si mesma.”
O documento conclui que as abordagens atuais podem estar encontrando barreiras fundamentais. “Essas percepções desafiam suposições prevalecentes sobre as capacidades dos LRMs e sugerem que as abordagens atuais podem estar encontrando barreiras fundamentais para o raciocínio generalizável”, afirma o estudo.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!