OpenAI desenvolve ferramenta para criadores controlarem uso de seu conteúdo em IA Generativa

OpenAI

A OpenAI anunciou o desenvolvimento de uma nova ferramenta chamada de Media Manager, buscando proporcionar aos criadores e proprietários de conteúdo maior controle sobre como seus trabalhos são utilizados no treinamento de inteligência artificial generativa.

A empresa planeja lançar a ferramenta até 2025, enquanto colabora com criadores, proprietários de conteúdo e reguladores para estabelecer um padrão.

Leia também: OpenAI enfrenta novas queixas de privacidade na UE

Para isso, a empresa está realizando pesquisas avançadas em aprendizado de máquina para desenvolver uma ferramenta que identifique e respeite os direitos autorais de texto, imagens, áudio e vídeo em várias fontes, de acordo com as preferências dos criadores. Além disso, a empresa pretende implementar mais opções e recursos com o tempo.

Os modelos de IA generativa, incluindo os da OpenAI, são alimentados com uma grande quantidade de dados, muitas vezes provenientes de sites públicos e conjuntos de dados, levantando questões legais sobre direitos autorais e uso justo.

Recentemente, a empresa enfrentou críticas devido à sua prática de coletar dados publicamente disponíveis na internet para treinar seus modelos de IA generativa. Em um episódio recente, a empresa foi processada por infração de propriedade intelectual por utilizar artigos de jornais sem compensação aos proprietários originais.

Para a OpenAI e outros fornecedores de IA generativa, a doutrina do uso justo é crucial. Ela permite a utilização de obras protegidas por direitos autorais para criar criações secundárias, desde que haja uma transformação significativa.

No entanto, essa visão não é unânime. Recentemente, a OpenAI afirmou que seria impossível criar modelos de IA úteis sem o uso de material protegido por direitos autorais. Esta afirmação, embora controversa, reflete a importância dos dados públicos para o treinamento desses modelos.

Ano passado, a OpenAI permitiu que artistas optassem por não participar do uso de seus trabalhos em seus conjuntos de dados. Além disso, a empresa permite que proprietários de sites decidam se desejam que seu conteúdo seja usado para treinar modelos de IA.

No entanto, algumas críticas surgiram, especialmente em relação ao processo de optar por não participar, considerado complexo. Também há preocupações sobre os valores pagos pela OpenAI aos criadores de conteúdo.

A empresa reconhece que suas soluções atuais não abordam completamente cenários em que o trabalho dos criadores é usado em plataformas que eles não controlam.

Outras empresas e projetos também estão se mobilizando para criar ferramentas que auxiliem os criadores na proteção de seus trabalhos contra a coleta de dados por IA generativa.

Essas iniciativas incluem a identificação e rastreamento de bots, a aplicação de marcas d’água invisíveis e o desenvolvimento de métodos para “envenenar” dados, tornando-os inúteis ou disruptivos para o treinamento de modelos de IA.

*Com informações do TechCrunch

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!