Meta lança projeto para promover IA generativa segura

meta purple llama

A Meta anunciou uma nova iniciativa, o Purple Llama, visando fomentar o desenvolvimento responsável de sistemas de inteligência artificial generativa. Esta proposta visa disponibilizar ferramentas e avaliações abertas para desenvolvedores, promovendo modelos abertos de IA de maneira segura e responsável.

De acordo com informações compartilhadas no blog da Meta, o Purple Llama representa um amplo projeto que visa, ao longo do tempo, disponibilizar ferramentas e avaliações para a comunidade construir, de maneira responsável, modelos abertos de IA generativa. A versão inicial contará com ferramentas e avaliações voltadas para a segurança cibernética e salvaguardas de entrada e saída, com previsão de mais ferramentas futuramente.

“Acreditamos que este é um passo importante para permitir a colaboração da comunidade e padronizar o desenvolvimento e a utilização de ferramentas de confiança e segurança para o desenvolvimento generativo de IA”, disse a empresa.

Nesta direção, a empresa introduziu o CyberSec Eval, conjunto inédito de benchmarks de segurança cibernética para modelos de linguagem grande (LLMs), oferecendo métricas e ferramentas para mitigar riscos de códigos inseguros e ataques cibernéticos.

Leia também: Meta, OpenAI e Microsoft deverão adotar novos chips de IA da AMD

“Esses benchmarks são baseados em orientações e padrões do setor (por exemplo, CWE e MITRE ATT&CK) e desenvolvidos em colaboração com nossos especialistas no assunto de segurança. Com este lançamento inicial, pretendemos fornecer ferramentas que ajudarão a resolver alguns riscos descritos nos compromissos da Casa Branca sobre o desenvolvimento de IA responsável”.

A Meta acredita que as ferramentas diminuirão a frequência de LLMs que sugerem códigos inseguros gerados por IA e limitarão sua utilidade para agentes cibernéticos adversários, revelando riscos relevantes de segurança cibernética.

Além disso, a Meta anunciou o lançamento do Llama Guard, um modelo pré-treinado disponível abertamente, projetado para verificar e filtrar entradas/saídas do LLM, garantindo a conformidade com as diretrizes de conteúdo. Segundo a Meta, ele oferece defesas contra resultados potencialmente arriscados. Além disso, este modelo permite a personalização pelos desenvolvedores, facilitando a adoção de práticas de segurança e aprimorando o ecossistema aberto de IA.

A partir dos lançamentos, a Meta também anunciou o desejo de fazer parcerias com a recém-anunciada AI Alliance, que conta com membros colaboradores como AMD, AWS, Google Cloud, Hugging Face, IBM, Intel, Lightning AI, Microsoft, MLCommons, Nvidia, Scale AI e outros, “para melhorar e tornar essas ferramentas disponíveis para a comunidade de código aberto”.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!