A inteligência artificial está banalizada ou mais poderosa do que nunca?

Desde o lançamento do GPT-4, em março de 2023, a OpenAI alimentou grandes expectativas sobre sua próxima evolução de seus modelos. No entanto, o atraso do GPT-5 não seguiu o roteiro esperado. A empresa de Sam Altman viu sua estratégia de escalonamento perder fôlego, forçando uma mudança de abordagem e levantando questionamentos sobre a sustentabilidade de seu modelo de crescimento. Ainda assim, seria o caso da OpenAI isolado ou um reflexo de uma tendência mais ampla: a IA está se tornando uma commodity?
A explosão de modelos e a perda de exclusividade
Nos últimos anos, a quantidade de modelos de IA disparou. A OpenAI dominou o mercado inicial, mas agora disputa espaço com Google DeepMind, Meta, Anthropic, além de empresas chinesas, como a DeepSeek e Tencent. O próprio Elon Musk lançou o Grok, treinado em tempo recorde e impulsionado pelo poder computacional da Tesla e da SpaceX.
James Barroso, diretor de Estratégia e Inteligência Artificial da Infor para a América Latina, reforça essa tendência. “Todo produto lançado hoje no mercado é ‘powered by AI‘. Mas isso não significa, necessariamente, que ele traga um diferencial competitivo real”, explica. Para ele, a IA só é relevante se resolver um problema de negócio. “O que vemos hoje é um inchaço de funcionalidades que nem sempre agregam valor de fato”, critica.
Leia mais: Dólar alto impulsiona internacionalização de startups brasileiras B2B
O Grok, por exemplo, apesar da velocidade de treinamento e da infraestrutura massiva utilizada por Musk, ainda não provou ser um modelo que ofereça inovação substancial. Como aponta Barroso, muitas dessas tecnologias são lançadas em ritmo acelerado para manter a relevância no mercado, mas acabam apenas replicando capacidades já existentes. “O Grok tem um poder computacional impressionante, mas sem um propósito claro e um uso eficiente, pode se tornar apenas mais um produto sem um diferencial competitivo real”, analisa.
Essa lógica reflete um movimento maior na indústria de IA, onde o volume de lançamentos gera a percepção de comoditização. “A massificação da IA está em curso, mas isso não significa que todas as soluções são equivalentes. O verdadeiro diferencial não está no modelo em si, mas na forma como ele é aplicado”, ressalta Barroso.
Mudança na estratégia da OpenAI
Durante anos, a OpenAI apostou no aumento exponencial do tamanho de seus modelos, mas a estratégia chegou a um impasse. O projeto Orion, que deveria ser o GPT-5, não conseguiu entregar ganhos expressivos em precisão, capacidade de raciocínio avançado e eficiência energética, mostrando que a estratégia de escalonamento baseada apenas no aumento de parâmetros havia atingido um limite.
Isso forçou a empresa a reformular sua abordagem, buscando novos métodos de treinamento e otimização para manter sua relevância no mercado. Agora, o foco está na “cadeia de raciocínio” (chain of thought), permitindo que a IA refine suas respostas de forma mais deliberada.
A Microsoft, principal investidora da OpenAI, também sente os impactos. Seu modelo de parceria previa um crescimento linear dos modelos de IA, mas essa trajetória se tornou incerta devido a desafios técnicos e financeiros.
De acordo com a Fortune, o desenvolvimento do GPT-5 enfrentou desafios financeiros, com cada ciclo de treinamento custando centenas de milhões de dólares e exigindo uma infraestrutura de data centers massiva. Além disso, a OpenAI teve dificuldades em justificar o salto tecnológico, já que as melhorias em relação ao GPT-4 foram marginais. O modelo Orion, que deveria ser o GPT-5, não apresentou avanços expressivos em programação e matemática, conforme reportagens do The Information e The Wall Street Journal. Apesar de superar o GPT-4 em algumas tarefas linguísticas, sua performance geral não justificava um novo lançamento, levando a OpenAI a reformular sua abordagem e priorizar a otimização de modelos já existentes.
Enquanto isso ocorre, empresas como DeepMind investem em soluções que dispensam infraestruturas pesadas, reduzindo a barreira de entrada para novos players.
Geopolítica e a fragmentação da IA
O avanço da IA também se tornou uma questão geopolítica. A China, por exemplo, detém 90% das patentes de IA registradas no mundo, mas ainda depende de semicondutores da Nvidia para viabilizar sua infraestrutura. Para contornar essa limitação, modelos como DeepSeek vêm sendo projetados para operar sem tanta necessidade das GPUs da empresa, tornando-se mais acessíveis e escaláveis.
Para Barroso, essa acessibilidade é a chave para definir se a IA se tornará de fato uma commodity. “Se empresas menores conseguirem integrar modelos potentes sem precisar de uma infraestrutura milionária, a IA se massificará. Mas a diferença estará no uso estratégico, e não na tecnologia em si”, aponta.
O futuro: IA utilitária ou revolucionária?
A crescente padronização da IA leva a uma questão central: sua evolução seguirá o caminho da eletricidade e da internet, tornando-se um serviço essencial e invisível, ou continuará impulsionando revoluções tecnológicas?
No Brasil, o desafio ainda é a maturidade digital. “Empresas ainda veem tecnologia como custo, não como diferencial. Elas investem em máquinas, mas hesitam em estruturar seus dados para IA”, afirma Barroso. No entanto, a adoção está acelerando. Segundo o executivo, ciclos de inovação que antes duravam 60 anos agora caem para apenas 8, tornando a inteligência artificial uma ferramenta indispensável.
Se a IA já é commodity ou não, dependerá de sua aplicação. No final, não importa quantos modelos surgem, mas sim quem souber usá-los da forma mais inteligente.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!