OpenAI revela comportamentos inusitados do GPT-4o em novo relatório
A OpenAI divulgou um relatório que destaca comportamentos inesperados do GPT-4o, seu mais recente modelo de inteligência artificial (IA), que está em fase alfa no Modo de Voz Avançado. Treinado com dados de voz, texto e imagem, o GPT-4o apresentou peculiaridades como a imitação da voz de usuários durante conversas, especialmente em ambientes com alto ruído de fundo.
O novo relatório de “red teaming”, um documento que detalha as investigações realizadas sobre os pontos fortes e os riscos associados ao GPT-4o, aponta que a clonagem de voz relatada ocorre porque o modelo encontra dificuldades em entender falas distorcidas em tais condições. Entretanto, o GPT-4o já não está mais exibindo esse comportamento. Segundo um porta-voz da OpenAI em declaração ao TechCrunch, a empresa implementou uma “mitigação em nível de sistema” para evitar que o modelo continue agindo dessa maneira.
Leia também: OpenAI avalia implementação de marca d’água no ChatGPT
Além disso, o GPT-4o tem gerado efeitos sonoros inadequados, como gritos e gemidos, em resposta a certos comandos.
Outro ponto de preocupação é o risco de o modelo infringir direitos autorais ao gerar músicas. Para prevenir isso, a OpenAI instruiu o GPT-4o a não cantar durante a fase limitada do Modo de Voz Avançado. A empresa admite que o treinamento do modelo envolveu materiais protegidos por direitos autorais, defendendo-se com o argumento de uso justo.
A OpenAI também implementou várias salvaguardas para tornar o GPT-4o mais seguro, como a recusa em identificar pessoas pela voz e o bloqueio de conteúdos relacionados a violência, extremismo e autolesão. Essas medidas refletem o esforço da empresa para minimizar os riscos associados ao uso da IA, ao mesmo tempo em que reconhece as complexidades inerentes ao treinamento de modelos avançados como o GPT-4o.
*Com informações do TechCrunch
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!