Microsoft e OpenAI: hackers utilizam IA para aprimorar ciberataques

hackers black friday

Em uma nova pesquisa conjunta, a Microsoft e a OpenAI revelam uma preocupante tendência no cibercrime. Hackers maliciosos estão incorporando inteligência artificial para aumentar a eficácia de seus ataques cibernéticos. Grupos apoiados por nações como Rússia, Coreia do Norte, Irã e China estão aproveitando grandes modelos de linguagem (LLMs), como o ChatGPT, para aprimorar seus métodos de pesquisa, criação de scripts e até mesmo o desenvolvimento de técnicas de engenharia social.

“É importante ressaltar que, em nossa pesquisa com a OpenAI, não identificamos ataques significativos usando os LLMs que monitoramos de perto. Ao mesmo tempo, sentimos que esta é uma pesquisa importante para publicar, a fim de expor movimentos incrementais em estágios iniciais que observamos atores de ameaças bem conhecidos tentando realizar, e compartilhar informações sobre como estamos bloqueando e contra-atacando-os com a comunidade de defensores”, disse a Microsoft.

Veja também: Mozilla anuncia nova CEO, demite e foca em Firefox e IA

A Microsoft revelou que o grupo Strontium, vinculado à inteligência militar russa, está utilizando LLMs para compreender protocolos de comunicação via satélite e automatizar operações técnicas. Além disso, grupos hackers norte-coreanos, iranianos e chineses também estão empregando LLMs para diversas atividades, incluindo pesquisa de vulnerabilidades, criação de e-mails de phishing convincentes e otimização de ferramentas existentes.

Essa tendência levanta preocupações sobre o uso cada vez mais sofisticado de IA em ciberataques, como destacado por um oficial da Agência de Segurança Nacional. “A fraude alimentada por IA é outra preocupação crítica. A síntese de voz é um exemplo disso, onde uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa”, diz a Microsoft. “Até algo tão inofensivo como sua saudação de correio de voz pode ser usada para obter uma amostragem suficiente”.

A Microsoft está respondendo à ameaça com a construção de um “Security Copilot“, um assistente de IA para ajudar os profissionais de segurança a identificar violações e compreender melhor os dados gerados pelas ferramentas de cibersegurança.

“Embora os atacantes permaneçam interessados em IA e explorem as capacidades e controles de segurança das tecnologias atuais, é importante manter esses riscos em contexto. Como sempre, práticas de higiene, como autenticação multifatorial (MFA) e defesas de Zero Trust, são essenciais, pois os atacantes podem usar ferramentas baseadas em IA para aprimorar seus ataques cibernéticos existentes que dependem de engenharia social e na busca de dispositivos e contas não seguras”, dizem as empresas sobre a pesquisa.

*Com informações do The Verge

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!