IA e abuso infantil: desafios tecnológicos para a proteção das crianças on-line

crianças, ia, regulação, segurança infantil

Um relatório da Universidade de Stanford alerta que o Centro Nacional de Crianças Desaparecidas e Exploradas dos Estados Unidos enfrenta uma crise diante da crescente ameaça de material de abuso sexual infantil (CSAI) gerado por inteligência artificial (IA), sobrecarregando uma Linha Direta Cibernética já limitada.

Com o apoio do Centro Nacional de Crianças Desaparecidas e Exploradas, os pesquisadores de Stanford puderam conduzir entrevistas com funcionários e analisar os sistemas internos da organização, identificando lacunas que requerem medidas para aprimorar a eficácia no combate ao abuso infantil on-line.

Um dos pontos críticos destacados no relatório é a grave falta de recursos enfrentada pelo Centro Nacional de Crianças Desaparecidas e Exploradas, uma instituição vital na coordenação e no combate aos crimes de abuso infantil nos Estados Unidos. Esta escassez de recursos se torna ainda mais preocupante diante da crescente ameaça impulsionada pela IA.

Leia também: Parlamentares norte-americanos acusam big techs de ignorarem segurança infantil on-line

Especificamente, a Linha Direta Cibernética do Centro, destinada a relatar casos de abuso sexual infantil on-line, já está sobrecarregada, recebendo relatórios incompletos e imprecisos, o que dificulta ainda mais o acompanhamento do volume crescente de denúncias, segundo o relatório, colocando em risco a identificação e proteção de crianças reais em situações de perigo.

Como exemplo, os pesquisadores contam que, no início deste ano, o Centro foi sobrecarregado com um recorde de um milhão de relatórios de abuso sexual infantil em um único dia, o que exigiu semanas de esforço dos investigadores para lidar com o volume. Muitos desses relatórios estavam ligados a memes compartilhados em várias plataformas como uma forma de expressar indignação, não com a intenção maliciosa de disseminar abuso. No entanto, mesmo sendo memes, esses relatórios demandaram recursos investigativos consideráveis, causando confusão e dificultando a identificação de casos legítimos de abuso.

“Quase certamente nos anos futuros, a Linha Direta Cibernética será inundada com conteúdo de IA altamente realista, o que tornará ainda mais difícil para as autoridades identificar crianças reais que precisam ser resgatadas”, disse Shelby Grossman, uma das autoras do relatório.

Os especialistas apontam que imagens de abuso sexual infantil geradas por IA são consideradas ilegais se envolverem crianças reais ou se utilizarem imagens reais de crianças para treinar os algoritmos. No entanto, imagens sintéticas, que não retratam crianças reais, podem ser consideradas uma forma de expressão protegida pela lei, segundo um dos autores do relatório.

“Um milhão de imagens idênticas já é difícil o suficiente, um milhão de imagens separadas criadas por IA os quebraria”, disse Alex Stamos, um dos autores do relatório de Stanford.

No relatório, os pesquisadores concluíram que o Centro Nacional de Crianças Desaparecidas e Exploradas precisava reformular sua linha direta para facilitar a identificação de relatórios relacionados a conteúdo gerado por IA, e também enfatizaram a importância de garantir que as empresas preencham os formulários de denúncia completamente.

Enquanto isso, o Centro, que recebe informações de indivíduos e empresas como Facebook e Google, está pressionando por uma legislação que amplie seus recursos e permita o acesso a mais tecnologia.

*Com informações do The New York Times

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!