A lua de mel da TI com o GPT-3 precisa de um choque de realidade agora

Há poucas tecnologias – na história – que desfrutaram de uma lua de mel mais profunda da mídia e junto ao público consumidor do que o ChatGPT e outros esforços construídos sobre o queridinho GPT-3. E os executivos de TI estão correndo para desenvolver aplicativos caseiros baseados no GPT-3.

Até aí, tudo bem.

Mas, como vimos antes – pense na corrida da Internet em meados da década de 1990 ou no blockchain mais recentemente – as empresas podem facilmente se adiantar fazendo grandes investimentos em outras coisas além de objetivos estratégicos.

Lembro-me de que, nos primórdios da World Wide Web, eu conversava com um executivo sobre os esforços para lançar um site e perguntava: “Por quê? Pelo quê? O que você está tentando realizar?” Em vez de obter uma ladainha de metas e objetivos concretos, ouvi variações como: “um dos membros do nosso conselho leu sobre isso e insiste para que tenhamos um” ou “o filho do nosso CEO não consegue parar de falar sobre isso” ou, o mais idiota, “todo mundo parece estar fazendo isso”.

Esses são exatamente os tipos de comentários que estou ouvindo hoje sobre o GPT-3. Para ser claro, muitas das tecnologias mais badaladas do setor acabaram se revelando estrategicamente importantes. Não todos, mas muitos.

O ChatGPT tem um conjunto impressionante de recursos, mas na verdade é simplesmente um enorme banco de dados com uma interface que imita efetivamente as comunicações humanas. Pense nisso como uma intranet hiperpotencializada.

As informações apresentadas na maioria das trocas do ChatGPT não são nada que não possam ser encontradas com uma pesquisa decente no Google. “Encontradas” é o ponto chave. Um usuário pode ter que revisar dezenas de resultados de pesquisa do Google para encontrar a única resposta encontrada pelo ChatGPT.

Leia também: ChatGPT: de hype a divisor de águas para negócios e pessoas

Outra vantagem – e é sem dúvida onde o maior valor de TI pode ser encontrado – está em suas interações humanas. Em teoria, isso pode permitir que muitos projetos de codificação renunciem aos esforços de programação mais elementares. A maioria dos projetos de programação começa com algum executivo ou gerente de linha de negócios dizendo para o talento técnico: “precisamos que o sistema seja capaz de XYZ. Vá fazer isso acontecer”.

E se o ChatGPT pudesse contornar parte desse talento de codificação e criar código diretamente com base nas instruções da linha de negócios? Alguns códigos são altamente criativos e imaginativos e continuarão a precisar de um toque humano. Mas, sejamos francos, muita programação é meticulosa e repetitiva. O GPT poderia assumir essa parte?

No lado negativo, todos nós vimos os erros ridículos e as fabricações simples que os sistemas GPT-3 entregaram. Até que isso seja corrigido, os usos do GPT-3 serão limitados. Por mais tentadora que seja a interface de linguagem natural, permitir que um programa de bate-papo GPT-3 fale em seu nome com os clientes é um desastre.

Então, como pode ser usado? Há duas maneiras de explorar essa questão crítica: prescritiva e aberta. Dependendo do seu negócio e objetivos – sem falar no orçamento – ambas as abordagens podem ser muito atraentes.

A abordagem prescritiva é mais fácil e provavelmente produzirá resultados mais imediatos. O que você está tentando realizar? O que o GPT-3 pode fazer hoje para ajudar o seu negócio e talvez viabilizar alguns lançamentos de produtos/serviços que você queria há algum tempo, mas não conseguiu?

A abordagem aberta é mais interessante. É aí que você dá à sua equipe ampla latitude para jogar com o GPT-3, ser criativo e ver o que ele pode fazer. Mas essa abordagem precisa ter alguns limites.

Os CIOs precisam descobrir o que querem fazer com isso ou os desenvolvedores vão girar suas rodas em ideias malucas sem fim, disse Scott Castle, Diretor de Estratégia da empresa de analytics Sisense. “Os CIOs precisam filtrar estrategicamente ou então você é apenas Willy Wonka na fábrica de chocolate”, disse ele.

Um dos maiores especialistas em analytics do setor é Roy Ben-Alta. No mês passado, Ben-Alta deixou a Meta/Facebook como Diretor de IA para lançar sua própria empresa. Antes da Meta, ele atuou por 11 anos na Amazon, encerrando com o título de Diretor, Analytics/Machine learning, Streaming de Dados e Bancos de Dados NoSQL.

Os CIOs “precisam perguntar: ‘O que isso vai fazer com o meu negócio?’”, disse Ben-Alta. “A melhor maneira de abordar isso é trabalhar de trás para frente a partir do cliente. Que problema estamos tentando resolver? Aqui está o problema: para entrar, você precisa gastar muito dinheiro. O treinamento requer muitas GPUs. Cada caso de uso requer fontes de dados específicas e, se não houver disponibilidade de dados, eles precisam determinar quanto custará para adquirir esses dados”.

O elemento mais poderoso do GPT-3 é sua codificação, sua interface. Mas para as empresas que estão tentando construir tudo isso, o problema não será a codificação. Com certeza serão dados.

“O calcanhar de Aquiles de todo sistema analítico é a qualidade dos dados”, disse Ben-Alta. “A maior parte do trabalho envolve os dados. A integração de dados é sempre o problema e é o elemento mais desafiador. O formato dos dados e o tipo de dados a serem usados estão evoluindo. O modelo analítico só fica bom quando os dados ficam bonS”.

A preocupação com os dados é importante, mas muitas das complexidades analíticas se materializam devido às interações dos dados. Waqaas Al-Siddiq, CEO da Biotricity, empresa de análise médica, oferece um exemplo poderoso de como as interações podem minar o melhor dos grandes modelos de linguagem.

“Qualquer coisa que seja um pico ou uma anomalia – como em três ou quatro desvios padrão da média – terá muitos problemas. Quanto mais variáveis, mais desafiador se torna, porque você precisará de mais dados”, disse Al-Siddiq. “Mas, como são anomalias, você não poderá fornecer dados suficientes”.

Leia mais: Desafios da segurança cibernética em 2023: phishing, ChatGPT, integração TI/OT e nuvem

Al-Siddiq deu um exemplo de logística de estoque: “Digamos que há um projeto de construção que causa o desvio de pessoas e durante essas mesmas duas semanas ocorre um período de calor. Isso fez com que as pessoas parassem e pegassem uma bebida. Agora existem múltiplas variáveis. Você nunca terá dados suficientes para lidar com essa anomalia de maneira autônoma ou previsível, a menos que tenha certeza de que está rastreando essas variáveis. Quanto mais variáveis você acompanhar, mais complexo será seu modelo de IA”.

Há um enorme valor potencial em alavancar esses grandes modelos de linguagem, mas obviamente é uma boa ideia não deixar as emoções tomarem conta.

“Todo esse burburinho se deve a um produto de uma empresa: OpenAI. Essa sociedade funciona muito com o efeito bandwagon, o medo de perder”, disse Jay Chakraborty, Sócio da PwC (anteriormente Price-Waterhouse-Coopers). “Esta é outra versão da corrida do ouro na Califórnia, a euforia pontocom, toda aquela situação do Y2K ‘o mundo inteiro vai quebrar’”.

Chakraborty incentiva os CIOs a simplesmente fazer alguns experimentos de sandbox e “empurrar a empresa para que apresente ideias e casos de uso. Se sou um fundo de hedge, por que não pensar no que posso automatizar? Isso poderia eliminar facilmente as cartas de investimento com muito mais eficiência. Ele gera a análise automaticamente e esse é mais um passo crucial para a linha de chegada. É escrever a peça final”.

Rowan Curran, Analista da Forrester, especializado em ciência de dados, machine learning, inteligência artificial e visão computacional, concorda que o GPT-3 tem um grande potencial, mas disse que os executivos devem encará-lo como apenas mais um esforço estratégico.

“A primeira coisa a fazer é dar um passo atrás da atenção do público e perguntar: ‘Onde podemos realmente aplicá-los para tirar proveito de seus pontos fortes e minimizar seus pontos fracos? Como podemos usá-lo?’”, disse Curran.

Embora o GPT-3 “seja potencialmente uma maneira fantástica de inovar, também é muito importante se concentrar no que é prático no curto prazo. É absolutamente necessário educar-se sobre o que é possível. Este é um espaço novo e dinâmico”, disse Curran, acrescentando que vê sérios limites. Por exemplo, ele considera a ideia de usá-lo para bate-papo em um aplicativo voltado para o cliente como “profundamente irresponsável”.

Grandes modelos de linguagem não são novidade, mas o front-end de imitação humana que o GPT-3 criou despertou o mundo de TI para as possibilidades e permitiu que muitos sonhassem. Isso é ótimo, desde que eles acordem pouco antes de as decisões de investimento serem tomadas e as direções do projeto serem decididas.