OpenAI usará LLM GPT-4 para moderação de conteúdo e para evitar vieses
A OpenAI, criadora do ChatGPT, está trabalhando no desenvolvimento de seu modelo amplo de linguagem (LLM) GPT-4 para automatizar o processo de moderação de conteúdo em plataformas digitais, especialmente em redes sociais.
A OpenAI está explorando a capacidade do GPT-4 de interpretar regras e nuances em documentações extensas de políticas de conteúdo, juntamente com sua habilidade de se adaptar instantaneamente a atualizações de políticas, conforme afirmado em um post no blog da empresa.
“Acreditamos que isso oferece uma visão mais positiva do futuro das plataformas digitais, onde a IA pode ajudar a moderar o tráfego on-line de acordo com políticas específicas da plataforma e aliviar o fardo mental de um grande número de moderadores humanos”, disse a empresa, acrescentando que qualquer pessoa com acesso à API da OpenAI pode implementar seu próprio sistema de moderação.
Leia mais: Como construir confiança dos funcionários à medida que a IA ganha terreno
Em contraste com a prática atual de moderação de conteúdo, que é completamente manual e demorada, o modelo de linguagem GPT-4 da OpenAI pode ser utilizado para criar políticas de conteúdo personalizadas em questão de horas, afirmou a empresa.
Para fazer isso, cientistas de dados e engenheiros podem utilizar um guia de política elaborado por especialistas em políticas e conjuntos de dados contendo exemplos reais de violações de política, a fim de rotular os dados.
Humanos ajudarão a testar a moderação de conteúdo por IA
Em seguida, o GPT-4 lê a política e atribui rótulos ao mesmo conjunto de dados, sem ver as respostas. Ao examinar as discrepâncias entre os julgamentos do GPT-4 e os de um humano, os especialistas em políticas podem pedir ao GPT-4 que apresente a razão por trás de seus rótulos, analise a ambiguidade nas definições de política, resolva a confusão e forneça mais esclarecimentos na política de acordo com isso”, afirmou a empresa.
Essas etapas podem ser repetidas por cientistas de dados e engenheiros antes que o modelo de linguagem grande possa gerar resultados satisfatórios, acrescentou, explicando que o processo iterativo resulta em políticas de conteúdo refinadas que são traduzidas em classificadores, permitindo a implementação da política e da moderação de conteúdo em escala.
Outras vantagens do uso do GPT-4 em comparação com a abordagem manual atual para moderação de conteúdo incluem a redução da rotulagem inconsistente e um ciclo de feedback mais rápido, de acordo com a OpenAI.
Leia também: O que é a IA generativa?
“As pessoas podem interpretar as políticas de maneira diferente ou alguns moderadores podem levar mais tempo para assimilar as novas mudanças na política, levando a rótulos inconsistentes. Em comparação, os LLMs são sensíveis a diferenças granulares na redação e podem se adaptar instantaneamente a atualizações de política para oferecer uma experiência de conteúdo consistente para os usuários”, afirmou a empresa.
A nova abordagem, segundo a empresa, também requer menos esforço em termos de treinamento do modelo.
Além disso, a OpenAI afirma que essa abordagem difere da chamada IA constitucional, na qual a moderação de conteúdo depende do próprio julgamento internalizado do modelo sobre o que é seguro. Várias empresas, incluindo a Anthropic, adotaram uma abordagem de IA constitucional ao treinar seus modelos para serem livres de viés e erros.
No entanto, a OpenAI alertou que viés indesejados podem se infiltrar nos modelos de moderação de conteúdo durante o treinamento.
“Assim como em qualquer aplicativo de IA, os resultados e a saída precisarão ser cuidadosamente monitorados, validados e refinados por meio da manutenção de seres humanos no processo”, afirmou a empresa.
Veja também: O que está acontecendo com o Google Assistente?
Especialistas do setor consideram que a abordagem da OpenAI para moderação de conteúdo tem potencial. “O GPT-4 é um modelo super capaz, e a OpenAI tem uma corrente interminável de usuários tentando fazer com que ela faça coisas prejudiciais. O que é ótimo como dados de treinamento”, disse Tobias Zwingmann, Sócio-Gerente da empresa de serviços de IA Rapyd.AI.
Se o modelo de linguagem grande da OpenAI puder ser utilizado com sucesso para a moderação de conteúdo, isso abrirá um mercado de bilhões de dólares para a empresa.
O mercado global de serviços de moderação de conteúdo, de acordo com um relatório da Allied Market Research, foi avaliado em US$ 8,5 bilhões em 2021 e projeta alcançar US$ 26,3 bilhões até 2031, crescendo a uma taxa de crescimento anual composta de 12,2% de 2022 a 2031.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!