3 coisas para saber à medida que a poeira do DeepSeek começa a baixar
![3 coisas para saber à medida que a poeira do DeepSeek começa a baixar 2 Logotipo da empresa DeepSeek exibido na tela de um smartphone, com o aparelho apoiado sobre um teclado de computador iluminado por luzes roxas](https://itforum.com.br/wp-content/uploads/2025/01/OFICIAL-Dimensao-Wordpress-2025-01-27T185949.674.jpg?x80797)
O lançamento de um único novo modelo de inteligência artificial (IA) normalmente não causa muito alvoroço fora dos círculos tecnológicos, nem costuma assustar investidores a ponto de apagar US$ 1 trilhão do mercado de ações. Agora, algumas semanas após o grande momento do DeepSeek, a poeira começou a baixar.
O ciclo de notícias seguiu para temas mais tranquilos, como o desmonte de antigos programas federais dos EUA, a remoção de pesquisas e conjuntos de dados para cumprir ordens executivas recentes e os possíveis impactos das novas tarifas do presidente Trump sobre o Canadá, México e China.
Mas no mundo da IA, qual será o impacto de longo prazo do DeepSeek? Aqui estão três sementes que ele plantou e que continuarão a crescer mesmo depois que o hype inicial desaparecer, segundo o MIT Technology Review.
Leia também: “Autorregulação” das big techs: o risco para a privacidade digital
-
DeepSeek impulsiona um debate sobre o consumo de energia dos modelos de IA
Você pode ter ouvido que o DeepSeek é eficiente energeticamente. Isso é verdade para a fase de treinamento, mas na inferência – o momento em que você faz uma pergunta ao modelo e ele gera uma resposta – a história é mais complexa.
Ele usa uma técnica chamada chain-of-thought (cadeia de pensamento), que divide questões complexas – como se é aceitável mentir para proteger os sentimentos de alguém – em partes e as responde logicamente, uma de cada vez. Esse método permite que modelos como o DeepSeek tenham um desempenho superior em matemática, lógica, programação e outras tarefas.
O problema, pelo menos para alguns, é que esse modo de “pensar” consome muito mais eletricidade do que os modelos de IA aos quais estamos acostumados. Embora a IA represente apenas uma pequena parcela das emissões globais hoje, há um crescente apoio político para aumentar radicalmente a quantidade de energia destinada à IA. A
questão de saber se o consumo energético de modelos de cadeia de pensamento vale a pena depende, é claro, do uso que se faz da IA. Pesquisas científicas para curar doenças parecem um motivo justificável. Criar conteúdos gerados por IA de baixa qualidade? Nem tanto.
Alguns especialistas temem que o impacto impressionante do DeepSeek leve as empresas a incorporá-lo em inúmeros aplicativos e dispositivos, fazendo com que os usuários o acionem para cenários que não exigem esse tipo de raciocínio complexo. (Por exemplo, perguntar ao DeepSeek sobre a teoria da relatividade de Einstein pode ser um desperdício, já que não exige etapas lógicas de raciocínio, e qualquer modelo de IA convencional pode responder com menos tempo e energia.) Leia mais sobre isso aqui.
-
DeepSeek fez avanços criativos no treinamento de IA, e outras empresas provavelmente seguirão o mesmo caminho
Modelos avançados de IA não apenas aprendem com grandes volumes de texto, imagens e vídeos. Eles dependem fortemente de humanos para limpar esses dados, anotá-los e ajudar a IA a selecionar melhores respostas – muitas vezes em troca de salários baixos.
Uma das formas de envolvimento humano nesse processo é por meio da técnica chamada aprendizado por reforço com feedback humano. Nela, o modelo gera uma resposta, avaliadores humanos atribuem uma pontuação a essa resposta, e essas pontuações são usadas para aprimorar o modelo. A OpenAI foi pioneira nesse método, mas ele agora é amplamente utilizado na indústria.
Como relata Will Douglas Heaven, editor sênior de IA na MIT Technology Review, o DeepSeek fez algo diferente: encontrou uma maneira de automatizar esse processo de pontuação e aprendizado por reforço. “Eliminar ou reduzir a necessidade de feedback humano é uma grande mudança”, disse Itamar Friedman, ex-diretor de pesquisa da Alibaba e agora cofundador e CEO da Qodo, uma startup de IA focada em programação. “Isso permite treinar modelos quase completamente sem necessidade de trabalho humano.”
Esse método funciona particularmente bem para disciplinas como matemática e programação, mas nem tanto para outras áreas, o que significa que o trabalho humano ainda é necessário em alguns casos. Mesmo assim, o DeepSeek deu um passo além e usou técnicas semelhantes às que o Google DeepMind utilizou em 2016 para treinar sua IA no jogo Go – essencialmente, fazendo com que o modelo simulasse diferentes movimentos e avaliasse seus resultados.
Esses avanços, especialmente por estarem amplamente documentados no código aberto do DeepSeek, certamente serão adotados por outras empresas. Leia mais sobre isso com Will Douglas Heaven aqui.
-
Sucesso do DeepSeek alimentará um debate fundamental: é possível defender uma IA aberta e, ao mesmo tempo, manter a competitividade dos EUA contra a China?
Muito antes de o DeepSeek liberar seu modelo gratuitamente, algumas empresas de IA argumentavam que a indústria deveria ser um livro aberto. A ideia era de que, se os pesquisadores seguissem princípios de código aberto e compartilhassem seus trabalhos, a corrida global para desenvolver uma IA superinteligente poderia ser tratada como um esforço científico pelo bem público, garantindo que nenhum ator tivesse poder absoluto.
É uma ideia interessante. A Meta tem apoiado essa visão, e o investidor de risco Marc Andreessen afirmou que abordagens de código aberto podem ser mais eficazes para manter a IA segura do que a regulamentação governamental. A OpenAI, por outro lado, sempre defendeu o oposto, mantendo seus modelos fechados sob o argumento de que isso os impede de cair nas mãos erradas.
O DeepSeek tornou essa narrativa mais confusa. “Estamos do lado errado da história aqui e precisamos encontrar uma nova estratégia para código aberto”, disse Sam Altman, CEO da OpenAI, em uma sessão de perguntas e respostas no Reddit na última sexta-feira – uma afirmação surpreendente, considerando a postura anterior da OpenAI.
Outros, incluindo o presidente Donald Trump, dobraram a aposta na necessidade de tornar os EUA mais competitivos em IA enxergando o sucesso do DeepSeek como um alerta. Dario Amodei, fundador da Anthropic, afirmou que isso reforça a necessidade de os EUA controlarem rigorosamente quais tipos de chips avançados são exportados para a China nos próximos anos – um ponto que também tem sido defendido por alguns legisladores americanos.
Nos próximos meses, e com os futuros lançamentos do DeepSeek e de outros modelos, cada um desses argumentos será colocado à prova.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!