Open Source Initiative lança definição oficial para IA de código aberto
A Open Source Initiative (OSI) divulgou a versão 1.0 de sua Definição de IA de Código Aberto (OSAID), após anos de colaboração com a academia e o setor de tecnologia. A proposta busca estabelecer critérios claros para determinar se um modelo de inteligência artificial (IA) pode ser considerado de código aberto, com o intuito de promover mais transparência e padronização no uso dessa tecnologia.
Segundo a OSI, para que um modelo de IA seja considerado de código aberto, ele deve fornecer informações suficientes sobre seu design e os dados de treinamento utilizados. Stefano Maffulli, vice-presidente executivo da Open Source Initiative (OSI), disse ao TechCrunch que “uma IA de código aberto é um modelo de IA que permite que você compreenda totalmente como foi construído”. Isso significa, segundo ele, que o acesso aos componentes essenciais deve estar disponível, incluindo “o código completo usado para treinamento e filtragem de dados”.
Leia também: Ameaças do ano que vem: 3 tendências de cibersegurança para 2025
Maffulli também destacou que a OSAID define os direitos de uso que os desenvolvedores devem ter com modelos de IA de código aberto, como “a liberdade de usar o modelo para qualquer finalidade e modificá-lo sem precisar pedir permissão a ninguém”. Além disso, ele acrescentou que “mais importante, você deve ser capaz de construir em cima” do modelo.
A iniciativa busca criar uma base comum entre desenvolvedores e reguladores, especialmente diante do crescente interesse de órgãos como a Comissão Europeia em reconhecer iniciativas de código aberto. No entanto, a OSI não tem mecanismos de fiscalização, confiando na comunidade de IA para reconhecer e corrigir possíveis abusos do termo “código aberto”.
“Fizemos um esforço explícito para alcançar um conjunto diversificado de partes interessadas e comunidades — não apenas os suspeitos habituais na tecnologia. Nós até tentamos nos conectar com as organizações que mais frequentemente falam com reguladores para obter seu feedback inicial”, disse Maffulli.
Várias empresas de tecnologia, como a Meta, têm usado o termo “código aberto” para descrever suas estratégias de IA, mas poucos modelos realmente atendem aos critérios estabelecidos pela OSAID. A Meta, por exemplo, exige uma licença especial para que plataformas com mais de 700 milhões de usuários utilizem seus modelos Llama. Apesar de Google e Microsoft terem decidido parar de usar o termo para modelos que não são completamente abertos, a Meta optou por manter essa prática. Outras empresas, como a Stability AI e a Mistral, também impõem restrições, como a necessidade de licenças empresariais ou a limitação do uso comercial de seus modelos.
Um estudo recente da Signal Foundation, AI Now Institute e Carnegie Mellon revelou que muitos modelos chamados de “código aberto” são apenas nominalmente abertos. Os dados usados para treinar esses modelos são mantidos em segredo, o poder computacional necessário é inacessível para muitos desenvolvedores, e as técnicas de ajuste são complexas.
Embora se apresentem como “código aberto”, empresas como a Meta e a Stability AI centralizam o poder ao controlar amplamente seus modelos de IA, segundo o estudo. A Meta, por exemplo, acumulou centenas de milhões de downloads de seus modelos Llama, enquanto a Stability AI afirmou que seus modelos são responsáveis por até 80% de todas as imagens geradas por IA.
A Meta não concorda com a avaliação da OSAID, apesar de ter participado do processo de redação. Um porta-voz defendeu que a licença do Llama, assim como sua política de uso, atua como proteção contra usos prejudiciais. A empresa adotou uma abordagem cautelosa ao compartilhar detalhes sobre os modelos, como dados de treinamento, em meio à evolução de regulamentações como a lei de transparência da Califórnia.
Embora a Meta colabore com a OSI e outros grupos, o porta-voz da empresa destacou que não há uma única definição de IA de código aberto, e as definições anteriores não abrangem a complexidade atual dos modelos de IA. Além disso, a Meta argumenta que manter certos dados privados é uma vantagem competitiva, já que seus modelos são treinados com grandes volumes de informações públicas extraídas de redes sociais e sites.
Alguns críticos acreditam que a definição da OSAID não aborda adequadamente questões como o uso de dados de treinamento proprietários. Luca Antiga, CTO da Lightning AI, destaca que um modelo pode ser considerado “aberto” pela OSAID, mesmo que os dados usados em seu treinamento sejam pagos. Ele questiona se a definição de código aberto é realmente válida se for necessário gastar milhares para acessar esses dados.
Maffulli, da OSI, concordou que a definição de IA de código aberto precisará ser revisada conforme o cenário evolui.
*Com informações do TechCrunch
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!