Inteligência artificial: mulheres negras sofrem mais erros em abordagens de reconhecimento facial do que brancos


Em entrevista ao podcast O Assunto, pesquisadores chamam atenção para falhas em tecnologia usada para capturar foragidos. O reconhecimento facial na segurança pública tem sido usado em capitais como Recife, Olinda, Belo Horizonte, Rio de Janeiro e Salvador, que usaram a tecnologia para capturar foragidos durante o carnaval. Mas pesquisadores da área vem chamando atenção para falhas de verificação em diferentes grupos populacionais.
“Principalmente mulheres negras sofrem com mais erros desse sistema do que homens brancos”, destaca Daniel Edler, pesquisador do Núcleo de Estudos da Violência da USP.
“Os sistemas de vigilância e avaliação de monitoramento não são ferramentas neutras, ainda mais quando usadas pela polícia”, diz. “Se você tiver um sistemas que é treinado basicamente com rostos de universitários americanos você vai ter rostos de homens brancos – e um sistema muito bem treinado para identificar homens brancos.”
Suspeitos foram encontrados pelas câmeras de reconhecimento facial
SSP-BA
Leia também
Com mais de mil prisões na BA, sistema de reconhecimento facial é criticado por ‘racismo algorítmico’; inocente ficou preso por 26 dias
Atualmente, a margem de erro nos sistemas de reconhecimento facial é de 8%. Segundo o pesquisador, até mesmo uma precisão de 99,9% poderia ter um efeito danoso em grandes centro urbanos, onde uma malha de câmeras pode, facilmente, “capturar dez milhões de rostos por dia”.
“A gente ainda teria dez mil casos de erros por dia. É ruim para a operação policial, porque o policial vai deixar a base da patrulha desprotegida [para fazer a abordagem] e há, obviamente, um problema de direitos humanos.”
Especialista explica como funciona o reconhecimento facial
Especialista fala sobre como é o reconhecimento facial na segurança pública
Ouça a entrevista completa no podcast O Assunto