Conflito Israel-Hamas: IA Generativa gera impacto sutil na desinformação
A tecnologia tem desempenhado um papel mais sutil do que se temia inicialmente no conflito entre Israel-Hamas, contrariando preocupações de que este conflito seria inundado por imagens falsas geradas por máquinas. Em vez disso, as imagens criadas por Inteligência Artificial (IA) permanecem em segundo plano. De acordo com especialistas ouvidos pelo Wired, a IA generativa é usada, principalmente, por ativistas para angariar apoio ou criar uma ilusão de apoio a um dos lados do conflito.
Conforme explicou à publicação Layla Mashkoor, Editora Associada do Atlantic Council’s Digital Forensic Research Lab, que se dedica ao estudo da desinformação on-line, embora as imagens criadas por IA circulem on-line propagando desinformação, elas não têm desempenhado um papel central na propagação de informações.
Mashkoor observou que a desinformação gerada por IA está sendo usada principalmente para angariar apoio a um lado do conflito, citando exemplos como outdoors em Tel Aviv apoiando as Forças de Defesa de Israel (IDF), contas israelenses compartilhando imagens falsas de apoio à IDF, influenciadores israelenses usando IA para gerar condenações do Hamas e imagens de IA retratando vítimas do bombardeio em Gaza por Israel.
Ela afirma que, dada a grande quantidade de desinformação em circulação, as imagens de IA têm dificuldade em moldar a conversa, já que o espaço de informação já está saturado de imagens autênticas.
Pesquisas recentes da Harvard Kennedy School Misinformation Review sugerem que as preocupações sobre o impacto da IA generativa na disseminação de desinformação podem ser exageradas. Aqueles que buscam ativamente a desinformação geralmente têm acesso a uma abundância de fontes de notícias falsas tradicionais, desde sites de teoria da conspiração até fóruns na internet.
Hany Farid, Professor da Escola de Informação da UC Berkeley, destacou ao Wired que a IA generativa desempenha um papel mais proeminente nos conflitos atuais, embora sua influência seja complexa. Ele a descreve como um “fantasma” que permeia conteúdos de áudio e vídeo relacionados ao conflito, frequentemente suscitando suspeitas e desinformação.
Ao receber inúmeras ligações diárias de repórteres em busca de verificações de veracidade, Farid observa que as pessoas tendem a rejeitar fatos inconvenientes, o que é influenciado pela presença de imagens de IA. Ele destaca que a desinformação se propaga nas redes sociais e que a IA generativa desempenha um papel, mas não é a única causa dessa complexidade no atual cenário de conflito.
Técnicas tradicionais, como o uso de Photoshop ou a edição de vídeo, podem ser igualmente eficazes para o fim da desinformação. Portanto, o foco excessivo na IA generativa pode ser uma distração, já que existem várias maneiras de manipular informações.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!
*Com informações do Wired