Revelações sobre treinamento de IA da Adobe geram debate ético

adobe

A Adobe lançou recentemente seu mais novo produto, o Firefly, um software gerador de imagens baseado em inteligência artificial (IA). O anúncio inicial da empresa afirmava que o Firefly havia sido treinado principalmente usando imagens licenciadas de seu próprio banco de dados, o Adobe Stock. No entanto, recentemente foi revelado que parte do treinamento do seu novo software também envolveu conteúdo gerado por IA de concorrentes.

A inclusão de imagens geradas por IA no treinamento do Firefly gerou críticas internas na empresa. De acordo com a Bloomberg, desde os primeiros dias do Firefly, houve discordância dentro da empresa sobre a inclusão dessas imagens. Alguns funcionários chegaram a sugerir a possibilidade de gradualmente remover essas imagens ao longo do tempo.

Leia mais: Adobe introduz IA para leitura e insights de documentos PDF

No entanto, sem planos claros para mudar isso, a empresa defende sua abordagem, argumentando que o treinamento em conjuntos de dados curados e diversificados dá ao Firefly uma vantagem competitiva em produzir resultados éticos e comercialmente seguros.

O Adobe Stock, plataforma da Adobe para compartilhamento de imagens, começou a aceitar formalmente conteúdo de IA em 2022. Uma parte significativa das imagens atualmente disponíveis é gerada por IA, cerca de 14% das 57 milhões de imagens registradas na plataforma, mas a empresa não divulgou publicamente que o Firefly teria sido treinado em parte com imagens de ferramentas concorrentes. Para piorar a situação, a Adobe também promoveu o Firefly como um software mais seguro do que a concorrência devido aos dados de treinamento que utilizava.

A Adobe afirmou que apenas uma parcela pequena, aproximadamente 5%, das imagens usadas para treinar sua ferramenta de IA foi gerada por outras plataformas de IA. Um porta-voz da empresa disse, segundo a Bloomberg, que todas as imagens enviadas para o Adobe Stock, incluindo esse pequeno subconjunto gerado por IA, passam por um rigoroso processo de moderação.

Esse processo visa garantir que as imagens não contenham propriedade intelectual de terceiros, marcas registradas, personagens reconhecíveis, logotipos distintivos ou referências aos nomes dos artistas, segundo o porta-voz.

Recentemente, Dana Rao, conselheiro geral da Adobe, destacou que treinar em conjuntos de dados diversificados e curados proporciona uma vantagem competitiva natural ao modelo, especialmente na produção de resultados comercialmente seguros e éticos.

Ele observou que a Adobe utilizou imagens do Adobe Stock, conteúdo licenciado e conteúdo de domínio público, em que os direitos autorais expiraram, para treinar o Firefly. Ashley Still, vice-presidente sênior da Adobe, relatou que os clientes corporativos expressaram apreço pela abordagem da empresa durante o lançamento do Firefly, destacando que valorizam o compromisso da Adobe em não utilizar toda a propriedade intelectual disponível na internet aberta.

No entanto, a Adobe não divulgou abertamente que o Firefly foi treinado usando imagens de ferramentas concorrentes, que supostamente teria padrões éticos inferiores, ferindo a confiança do público. Essas informações foram detalhadas em pelo menos dois grupos de discussão on-line administrados pela empresa no Discord – um para o Adobe Stock e outro especificamente para o Firefly – conforme relatado em mensagens visualizadas pela Bloomberg.

Até a publicação desta nota, a Adobe ainda não havia se pronunciado publicamente sobre as críticas, mas a questão certamente continuará a gerar debate dentro da comunidade de tecnologia e além dela. Rebecca Tushnet, professora de Harvard especializada em direitos autorais, disse à Bloomberg que treinar com IA não necessariamente afeta a segurança comercial do Firefly, mas a falta de transparência pode minar sua singularidade frente aos concorrentes.

*Com informações da Bloomberg

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!