Pesquisadores criam alternativa ao modelo de ‘raciocínio’ da OpenAI por menos de US$ 50

Ilya Sutskever, OpenAI, agi

Pesquisadores das universidades de Stanford e Washington, nos Estados Unidos, conseguiram treinar um modelo de inteligência artificial (IA) focado em raciocínio gastando menos de US$ 50 em créditos de computação em nuvem, segundo uma reportagem do The Next Web.

Batizado de s1, o modelo apresentou um desempenho semelhante a sistemas avançados como o o1, da OpenAI, e o R1, da DeepSeek, em testes que avaliam habilidades matemáticas e de programação. O código e os dados usados no treinamento estão disponíveis no GitHub.

Leia também: Google lança modelos de IA e traz ‘raciocínio’ para o Gemini – IT Forum

Como o modelo foi criado

Os pesquisadores partiram de um modelo-base já existente e o refinaram utilizando distilação, técnica que permite extrair habilidades de raciocínio de outro modelo de IA treinado, com base em suas respostas. No caso do s1, o conhecimento foi extraído do Gemini 2.0 Flash Thinking Experimental, da Google.

Esse mesmo método já foi usado recentemente por pesquisadores de Berkeley, que conseguiram criar um modelo similar por aproximadamente US$ 450.

A possibilidade de reproduzir funcionalidades avançadas com um investimento tão baixo levanta questões sobre a comoditização da IA. Afinal, se um grupo de pesquisadores pode replicar um modelo que custou milhões para ser desenvolvido com poucos recursos, qual será o diferencial competitivo das grandes empresas?

O que diz a indústria

Grandes laboratórios de IA estariam incomodados com essa nova tendência. A OpenAI, por exemplo, já acusou a DeepSeek de coletar dados de sua API de maneira inadequada para treinar seus próprios modelos usando distilação.

O estudo sobre o s1 mostra que modelos de raciocínio podem ser refinados com pequenos conjuntos de dados e utilizando um processo chamado supervised fine-tuning (SFT).

Diferentemente do aprendizado por reforço em larga escala, empregado pela DeepSeek para treinar o R1, o SFT exige menos investimento computacional.

Embora o Gemini 2.0 Flash Thinking Experimental seja acessível gratuitamente via Google AI Studio, há restrições sobre seu uso, como limites diários e a proibição de engenharia reversa para criar produtos concorrentes.

IA acessível para todos?

O s1 foi baseado em um modelo de código aberto desenvolvido pelo laboratório de IA chinês Qwen, pertencente ao grupo Alibaba. Para treiná-lo, os pesquisadores criaram um conjunto de apenas 1.000 perguntas cuidadosamente selecionadas, combinadas com respostas e o “processo de pensamento” por trás delas, obtido do Gemini 2.0 Flash Thinking Experimental.

O treinamento durou menos de 30 minutos em 16 GPUs Nvidia H100, e segundo um dos pesquisadores envolvidos no projeto, o custo para rodar esse treinamento hoje seria de apenas US$ 20.

Um detalhe interessante foi a estratégia usada para aumentar a precisão do s1: os pesquisadores adicionaram a palavra “wait” (“espere”) no raciocínio do modelo, o que permitiu que ele revisasse suas respostas antes de entregá-las.

Futuro da inovação em IA

Gigantes como Meta, Google e Microsoft planejam investir centenas de bilhões de dólares em infraestrutura de IA nos próximos anos, visando aprimorar a próxima geração de modelos. No entanto, abordagens como a distilação mostram que não é sempre necessário um investimento massivo para alcançar avanços significativos.

Embora esse método não crie modelos radicalmente superiores aos atuais, ele demonstra que a IA está se tornando mais acessível e que o futuro da inovação pode estar tanto nos grandes laboratórios quanto nas mãos de pesquisadores independentes.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!