4 formas de minimizar riscos de segurança com machine learning

Por sua capacidade de classificação de dados, entre outras vantagens, modelos de machine learning vêm sendo utilizados em diferentes aplicações, de comunicação wireless, biometria a tantas outras abarcadas pelo setor empresarial. No entanto, estudos recentes mostram que esses modelos também possuem vulnerabilidades do ponto de vista da segurança digital.

Segundo estudo conduzido pelo especialista em cibersegurança da Tempest, Paulo Freitas, é possível comprometer modelos de machine learning a partir da introdução de “ruídos imperceptíveis” no dado usando uma técnica conhecida como Ataque Adversarial.

Leia também: Bodytech adota assinatura eletrônica e deixa de imprimir 1,8 milhão de folhas

A técnica é usada para manipular de forma arbitrária a capacidade que uma rede neural possui de identificar e classificar um dado. Com isso, é possível gerar perturbações e induzir o modelo a erros, como por exemplo classificar um malware ou um vírus como um arquivo legítimo.

Para minimizar os riscos inerentes aos modelos, Freitas aponta algumas recomendações para empresas que estão inovando no uso de tecnologias.

Alargar as fronteiras que dividem as categorias de dados

Fronteira é o limite que determina se um dado está classificado da maneira certa ou errada. Adicionar dados que contenham ruídos e utilizar técnicas que gerem perturbação são formas de modificar o treinamento da rede, dificultando a adulteração por tornar os dados do sistema mais complexos.

Remover os ruídos

Criar uma caixa preta de algoritmos e redes neurais de forma que o ruído seja removido antes de fornecer a imagem para o alvo do ataque adversarial.

Detectar a presença de ruídos

Ao invés de remover o ruído, uma solução é simplesmente detectá-lo , pois quando isso é feito já há uma sinalização de um possível problema. Mesmo que não se apresente a solução de imediato, a técnica serve para colocar as equipes de segurança em prontidão.

Ampliar o número de classificadores

Classificadores são os possíveis alvos dos atacantes. Quando se amplia o número, o atacante terá de forçar a maioria dos classificadores a cometerem erro, o que torna menos provável o ataque ter sucesso.