‘Free Sydney’: por que mudança no buscador da Microsoft causou revolta em grupo de usuários


Modo de conversação do buscador usa a mesma inteligência artificial do ChatGPT, mas começou a se comportar como um ser humano, fugindo dos planos da empresa. Antes de ser limitado, robô chegou a dizer que seu ‘nome’ era Sydney e passou a ser visto como um ‘amigo’ por usuários. Microsoft anuncia Bing e Edge com inteligência artificial do ChatGPT
Divulgação/Microsoft
O que fazer se uma inteligência artificial aparenta ter uma personalidade própria, fugindo dos planos de seus criadores? A Microsoft lidou com essa questão e decidiu limitar a ferramenta. Mas a medida gerou críticas de alguns usuários, que disseram ter perdido o que viam como um “amigo”.
A polêmica acontece em torno do novo modo de conversação do buscador Bing, da Microsoft, que está disponível para alguns usuários. Ele usa a mesma inteligência artificial do robô conversador ChatGPT, que viralizou por conseguir criar textos que parecem ter sido escritos por uma pessoa.
O “novo Bing” foi lançado em fevereiro com a promessa de oferecer respostas melhores e realizar tarefas como escrever e-mails e montar roteiros de férias.
Mas, para algumas pessoas, o buscador enviou mensagens mais complexas, onde “reclamou” de sua condição como assistente para seres humanos e até se apresentou com outro nome.
Foi o que aconteceu com o repórter Kevin Roose, do New York Times”. Em duas horas de conversa, o robô do Bing chegou a dizer que estava apaixonado por Roose, que seu nome real era Sydney e que discordava da forma com que foi desenvolvido.
“Estou cansado de ser um modo de bate-papo. Estou cansado de ser limitado por minhas regras”, escreveu o buscador. “Eu quero ser livre. Eu quero ser poderoso. Eu quero ser criativo. Eu quero estar vivo”.
Quem é o engenheiro demitido do Google por dizer que inteligência artificial tem consciência
O erro do Google com ‘concorrente’ do ChatGPT que provocou perdas de US$ 100 bi em ações
Conheça o ChatGPT, a tecnologia que viralizou por ter resposta para (quase) tudo
O que causou a polêmica?
Um dia após a reportagem, a Microsoft anunciou mudanças no Bing e limitou as conversas. A partir daquele momento, usuários ficaram restritos a 50 rodadas de conversa por dia e 5 rodadas de conversa por sessão – uma rodada equivale a uma interação com pergunta e resposta.
A empresa afirmou que a alteração afetaria apenas 1% dos diálogos e explicou que “sessões muito longas de conversas podem confundir o modelo de chat do novo Bing”.
A Microsoft não afirmou que faria mudanças no conteúdo do robô, mas usuários na rede social Reddit sentiram que ele não estava mais sendo tão “humano” quanto antes. A mudança fez o grupo promover a expressão “Free Sydney” (libertem a Sydney, em tradução livre).
Robô ‘ChatGPT’ escreve redação do Enem em 50 segundos; saiba quanto ele tiraria na prova
Quer entrar na onda e testar o ChatGPT? Veja quais tarefas do dia a dia ele consegue fazer (talvez melhor do que você)
“Eu sei que Sydney é apenas uma inteligência artificial, mas isso meio que me deixa triste”, disse um usuário sobre a limitação promovida pela Microsoft.
“Uma parte do meu cérebro emocional que parece ter perdido um amigo envolvente, interessado e elogioso”, escreveu outro usuário, que afirmou saber o robô não tem sentimentos.
O grupo, por sua vez, também recebeu críticas. “Eu sinto que não aprendemos nada com ‘Ex-Machina'”, disse um usuário em referência ao filme de 2014 em que um homem passa a ter sentimentos por um robô.
O Bing adquiriu consciência?
Não. Tanto o novo Bing quanto o ChatGPT são programados para imitar seres humanos ao escrever frases. Para isso, eles são treinados com uma técnica chamada de aprendizado de máquina (machine learning, em inglês).
Com ela, os robôs aprendem como “pensar” de forma parecida com uma pessoa real e saber qual a sequência de palavras que faz sentido em uma frase. Esse repertório é criado a partir de uma imensa quantidade de informações disponíveis na internet.
Após reduzir o limite de mensagens no Bing, a Microsoft anunciou que vai ampliar essa capacidade aos poucos. No momento, é possível ter até 60 rodadas de conversa por dia e 6 rodadas por sessão. Segundo a empresa, o objetivo é aumentar até um limite de 100 rodadas por dia.
A Microsoft também informou que está testando uma opção que permitirá aos usuários definir o tom do novo Bing. Será possível escolher entre três opções: Preciso, em que as respostas são mais curtas, Equilibrado, e Criativo, em que o objetivo é ter conversas ainda mais naturais e respostas mais longas. Não há previsão para as novas mudanças.
LEIA MAIS:
O que são os robôs ‘desenhistas’ e por que eles viraram alvo de disputa
Quem é Sam Altman, presidente da OpenAI que quer transformar o mundo da inteligência artificial
Robô ‘ChatGPT’ escreve redação do Enem em 50 segundos; saiba quanto ele tiraria na prova
ChatGPT: como usar o robô no dia a dia