Golpes com IA: 5 dicas para não cair em deepfake

Fabricio Carraro, Alura fala sobre deepfake

O uso de inteligência artificial (IA) para modificar vídeos e imagens e criar conteúdo falso, técnica conhecida como deepfake, cresceu 830% no Brasil no último ano. Os dados são de um relatório da Sumsub, plataforma de verificação de identidade.

Para Fabrício Carraro, Program Manager da Alura, embora a IA tenha sido desenvolvida para trazer mais eficiência e agilidade ao cotidiano, ela também tem sido utilizada de forma maliciosa. As deepfakes, por exemplo, permitem a sobreposição de rostos e vozes em produções audiovisuais ao sincronizar movimentos dos lábios e expressões faciais de maneira realista.

Leia também: IT Forum Praia do Forte debate estratégias para enfrentar a guerra cibernética

Isso dificulta distinguir o vídeo original do falso, fazendo com que muitas pessoas acreditem nos conteúdos e acabem sendo vítimas de golpes financeiros ou disseminando desinformação. “Por isso, é crucial exercer sempre um nível saudável de ceticismo e saber identificar essas falsificações, para que menos pessoas sejam enganadas e repercutam informações equivocadas”, diz Carraro.

Para auxiliar as pessoas a não caírem nesses golpes, o especialista listou cinco dicas de como identificar uma deepfake.

  1. Verifique a fonte das informações

Saber de onde vem uma informação antes de compartilhá-la ou mesmo acreditar nela é o primeiro passo para não cair em uma deepfake. Carraro indica sempre utilizar fontes confiáveis e reconhecidas no momento de se informar, como sites de notícias estabelecidos e organizações respeitáveis.

“Procurar evidências que corroborem aquele assunto em mais de um canal e comparar esses conteúdos, com certeza será essencial para certificar que se trata de algo real”, complementa.

  1. Analise o conteúdo detalhadamente

Examinar cuidadosamente o vídeo ou a imagem em questão é outra forma de encontrar manipulações. Achar inconsistências no conteúdo, como distorções visuais, cortes abruptos, falhas de áudio ou edições suspeitas, é um grande ponto de atenção.

Para o especialista, os detalhes são a chave para essa análise. “Deepfakes podem ter pequenas falhas que são detectadas com uma observação minuciosa. Fique atento desde as expressões faciais e movimentos corporais das pessoas dos vídeos até contextos do cenário”, pontua.

  1. Utilize outras tecnologias para identificar deepfakes

Muitas ferramentas podem impulsionar a supervisão humana para aumentar a precisão na detecção de deepfakes. Carraro ressalta que os algoritmos podem ser capazes de ajudar a identificar possíveis sinais de manipulação, complementando a revisão dos humanos sobre as suspeitas.

“A análise forense de vídeos, assinaturas digitais e marcas d’água são apenas alguns dos recursos que podem ajudar a verificar a autenticidade de materiais digitais e ser grandes aliados na luta contra o uso incorreto da IA”, diz o especialista.

  1. Consulte especialistas sobre o tema

Com a IA crescendo, mais pessoas buscam se aprofundar no tema. Muitas delas podem oferecer insights e análises técnicas para ajudar a determinar se o conteúdo é genuíno ou deepfake. “Se estiver em dúvida sobre a autenticidade de uma informação, não hesite em consultar especialistas em análise de mídia ou segurança cibernética”, aconselha.

  1. Promova a literacia digital

Educar-se sobre o assunto também é um passo importante, não só para que a própria pessoa não acredite em vídeos modificados, mas também ajude a conscientizar a população sobre o tema. Familiarizar-se, pelo menos com as técnicas comuns de manipulação de mídia, já é uma ótima iniciativa nesse sentido.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!