Confiança excessiva em chatbots com IA transformou ferramentas em ‘caixas pretas’

Francisco Camargo, CEO da CLM chatbot

A CLM, distribuidora de tecnologia especialista em segurança da informação, comentou essa semana um alerta sobre um suposto vazamento de dados de 20 mil usuários do OmniGPT. A informação foi publicada em um fórum de violações e acendeu um alerta sobre os riscos dessas ferramentas.

Segundo o alerta, um hacker teria se infiltrado no OmniGPT e exposto dados pessoais de usuários, incluindo e-mails, números de telefone e mais de 34 milhões de linhas de prompts e conversas. Os dados expostos também incluiriam links para arquivos, alguns dos quais com informações como credenciais, prompts, detalhes de cobrança e chaves de API.

Leia mais: Amazon investe US$ 10 bi em data centers nos EUA em corrida da IA

Para o CEO da CLM, Francisco Camargo, o crescimento do uso de ferramentas de IA generativa lança luz sobre os riscos de usar chats ferramentas públicas para interações com clientes. “O grande volume de dados pessoais, financeiros e a conversação trocados com esses sistemas de IA significa que uma violação pode ter consequências incalculáveis, afetando a segurança pessoal e a confiabilidade desses serviços”, diz, em comunicado.

O executivo diz que, assim como desejamos sigilo e confiança em conversas com pessoas, queremos “o mesmo nas conversas com as IAs, que cada vez se parecem mais humanas”. E que é um risco “tratar chatbots de IA como um repositório casual para toda e qualquer informação”, o que torna essas plataformas “caixas pretas”.

Especialistas da CLM dizem que a segurança da informação precisa acompanhar o ritmo de crescimento dos sistemas com IA generativa. E que a conscientização dos usuários sobre as informações compartilhadas e a segurança delas é fundamental.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!