‘Foi uma tortura’: o trabalho nos bastidores para tirar conteúdo tóxico do robô ChatGPT


Segundo a revista Time, robô conversador que ficou conhecido por responder quase como um ser humano contou com ajuda de funcionários terceirizados que revisaram casos de violência, sexismo, machismo, entre outros. Conheça o ChatGPT, inteligência artificial criada por Elon Musk que tem resposta para tudo
Jakub Porzycki/Reuters
O robô conversador ChatGPT viralizou por sua capacidade de conversar quase como um humano. A ferramenta foi pensada para não enviar mensagens agressivas aos usuários, mas isso foi alcançado com ajuda de trabalhadores que tiveram que analisar conteúdos tóxicos.
É o que aponta uma reportagem da revista Time, que mostra como a OpenAI, criadora do ChatGPT, contou com funcionários terceirizados do Quênia para que o robô não fizesse comentários violentos, sexistas ou machistas, por exemplo.
“Isso foi uma tortura”, disse à Time um funcionário que precisava lidar com esse tipo de conteúdo e pediu para não ser identificado. Entre os textos que ele precisou analisar, estava um que retratava um caso de zoofilia em frente a uma criança.
“Você lê uma série de declarações como essa durante toda a semana. Quando chega sexta-feira, você está perturbado por pensar naquela imagem”, afirmou.
Outros três funcionários ouvidos pela Time afirmaram que, em um turno de 9 horas, tinham que ler entre 150 e 250 textos – muitos deles problemáticos – que podiam chegar a 1.000 palavras cada um. Segundo a revista, todos afirmaram que a tarefa os deixava “mentalmente feridos”.
ChatGPT tira dúvidas e cria códigos de programação; veja o que mais o robô pode fazer
Bill Gates sobre robô ChatGPT: ‘Estou impressionado com o nível de inovação’
Conheça o ChatGPT, a tecnologia que viralizou por ter resposta para (quase) tudo
‘Limpeza’ do ChatGPT
O modelo de linguagem do ChatGPT é treinado por uma inteligência artificial que utiliza conteúdos retirados da internet. Sem um filtro, a ferramenta poderia responder aos usuários com mensagens ofensivas.
Para resolver a questão, a OpenAI contratou uma empresa de São Francisco, nos EUA, para revisar dezenas de milhares de textos. Essa companhia, por sua vez, repassou a tarefa para funcionários no Quênia.
Os trabalhadores tinham que sinalizar quando encontravam casos de violência, discurso de ódio, abuso sexual infantil, assassinato, tortura, entre outros.
As informações ajudaram o ChatGPT a detectar esse tipo de conteúdo por conta própria e a evitar que conteúdo tóxico fosse enviado para os usuários.
Segundo a Time, contratos apontam que funcionários da Sama receberam entre US$ 1,32 e US$ 2 por hora (entre R$ 6,87 e R$ 10,42, na cotação de sexta-feira) para sinalizar o material tóxico do ChatGPT, ainda que a OpenAI tenha pagado US$ 12,50 por hora, em média.
A OpenAI confirmou à Time que os trabalhadores ajudaram a remover conteúdo tóxico da ferramenta que seria usada no ChatGPT. Segundo a empresa, esse foi “um passo necessário” para minimizar a quantidade de conteúdo violento e sexual da ferramenta.
Veja que nota o ChatGPT tiraria com uma redação do Enem escrita em 50 segundos
Professores descobrem falhas em textos do robô ChatGPT, mas elogiam novidade
ChatGPT é um robô de conversação (chatbot) da empresa OpenAI
Reprodução
Fim do contrato
O contrato entre a OpenAI e a Sama durou entre novembro de 2021 e fevereiro de 2022, oito meses antes do previsto. A empresa responsável pela revisão do conteúdo disse que interrompeu o acordo após ouvir as preocupações de seus executivos no Quênia com a natureza traumática do trabalho.
Com a decisão, boa parte dos funcionários perderam os bônus que recebiam por analisar conteúdo explícito, enquanto outros foram demitidos. A Sama também trabalhou em sistemas de revisão de conteúdo do Facebook, do Google e da Microsoft.
As situações de estresse entre funcionários que revisam conteúdo também já afetaram redes sociais. Em 2021, o TikTok foi processado por uma funcionária que disse ter sofrido trauma com a moderação de conteúdo.
Um ano antes, o Facebook pagou US$ 52 milhões para moderadores que desenvolveram estresse pós-traumático por terem sido frequentemente submetidos a imagens fortes e a publicações violentas.