ChatGPT pode ser aliado da cibersegurança, não só inimigo, alerta Sophos

Se por um lado o ChatGPT tem sido visto como uma ferramenta que pode auxiliar o lançamento de cibercrimes, de outro pesquisadores acreditam que a tecnologia pode ser usada para beneficiar a cibersegurança. Um novo estudo realizado pela Sophos revelou como a indústria de cibersegurança pode alavancar o GPT-3, sistema de linguagem por trás da ferramenta ChatGPT, e utilizá-lo como aliado para derrotar cibercriminosos.

No relatório GPT for You and Me: Applying AI Language Processing to Cyber Defenses, a Sophos detalha como o GPT3 pode ser usado para simplificar a pesquisa de atividades maliciosas em bancos de dados de softwares de segurança, filtrar mais precisamente o spam e acelerar a identificação de ataques como o LOLBin.

Para Sean Gallagher, principal investigador de ameaças da Sophos, a comunidade de segurança tem se dedicado aos potenciais riscos que a nova tecnologia pode trazer. No entanto, o especialista avalia que a comunidade de segurança deveria estar atenta não só aos riscos potenciais, mas às oportunidades do GPT-3.

Os pesquisadores da Sophos X-Ops têm trabalhado em três modelos que demonstram o potencial do GPT-3 como assistente. Os três utilizam uma técnica chamada “few-shot learning”, ou “aprendizagem com poucos disparos”, para treinar o modelo de IA com apenas algumas amostras de dados.

ChatGPT embarcado

A primeira aplicação testada utilizando o método foi uma interface de consulta de linguagem natural, utilizada para o rastreio de atividades maliciosas na telemetria de softwares de segurança. O teste usou um produto da própria companhia e com essa interface, os defensores foram capazes de filtrar por meio da telemetria, com comandos básicos em inglês, eliminando a necessidade dos defensores compreenderem Structured Query Language (SQL) – linguagem padrão para trabalhar com bancos de dados relacionais – ou a estrutura oculta de uma base de dados.

Em seguida, a Sophos testou um novo filtro de spam usando o ChatGPT e descobriu que, quando comparado a outros modelos de machine learning para filtragem de spam, o filtro que usava o GPT-3 era significativamente mais preciso.

Por fim, os cientistas da empresa conseguiram criar um programa para simplificar o processo de engenharia inversa das linhas de comando da LOLBins. Tal engenharia é notavelmente difícil, mas também crucial para a compreensão do comportamento do LOLBin e para impedir esses tipos de ataques no futuro.

Para Gallagher, uma tecnologia como o GPT-3, é possível simplificar certos processos de trabalho intensivo e devolver um tempo valioso aos defensores. “Já trabalhamos na introdução de alguns dos modelos mencionados anteriormente em nossos produtos e disponibilizamos os resultados dos nossos esforços no nosso GitHub para aqueles interessados em testar o GPT-3 nos seus próprios ambientes de análise. No futuro, acreditamos que o GPT-3 pode muito bem tornar-se um aliado padrão para especialistas em segurança”, completa Gallagher.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!