Chegou a hora do marco regulatório da IA no Brasil

governança, regulação, regulamentação, inteligência artificial, ia

A inteligência artificial (IA) está rapidamente transformando o mundo em diversos aspectos, desde a economia até a vida cotidiana das pessoas. Por isso, a discussão sobre a criação de um marco regulatório vem ganhando força no Brasil. As diretrizes éticas, visando criar um arcabouço que garanta a utilização adequada da nova ferramenta e a forma ideal para definir responsabilidades, caso algo saia do eixo, vêm sendo os principais temas de debate.

Embora a IA não seja uma ameaça direta, essa preocupação faz sentido, pois o uso inadequado dela oferece grande risco. Cibercriminosos a utilizam para detectar e explorar vulnerabilidades nas redes de forma mais fácil e rápida. As tentativas de ataque cibernético no país aumentaram 16% entre 2021 e 2022 (de 88,5 bilhões para 103,16 bilhões), de acordo com dados do FortiGuard Labs.

Neste aspecto, o país é o líder na América do Sul e fica atrás apenas do México na América Latina. E os dados se tornaram um ativo estratégico vital na atualidade, exigindo um conjunto de processos, políticas, padrões e tecnologias que asseguram a qualidade, integridade, segurança e usabilidade deles em qualquer entidade.

Leia também: EXCLUSIVO: 88% da indústria brasileira prevê o uso da GenAI em 2024

A tecnologia ainda em desenvolvimento, aliada ao uso inadequado por parte de quem ainda não foi devidamente orientado a utilizar o recurso, pode resultar em alucinações nas respostas das ferramentas e potenciais violações a direitos autorais, deveres de sigilo profissional ou mesmo à LGPD (Lei Geral de Proteção de Dados Pessoais).

A LGPD, inclusive, é uma referência crucial quando se trata de IA, uma vez que ambas lidam com grandes volumes de dados pessoais. Ela já estabelece diretrizes sobre o tratamento destas informações, indicando um rumo para que os sistemas de IA operem de maneira responsável, garantindo a privacidade e a segurança dos usuários. A responsabilidade pela operação deve ser claramente definida, especialmente quando os sistemas funcionam de maneira autônoma e podem sair do controle de seus desenvolvedores, como é o caso aqui.

Outro desafio muito importante está na segurança e na confiabilidade dos sistemas. Mecanismos de controle rigorosos devem ser implementados a fim de proteger contra ameaças cibernéticas e garantir que os sistemas de IA sejam auditáveis e transparentes. Essa segurança nos leva a outro ponto: a promoção da inclusão e da acessibilidade. Os conteúdos desenvolvidos devem atender todas as camadas da sociedade e não apenas para uma elite tecnológica. Isso envolve fomentar a capacitação das pessoas. A regulação ainda pode determinar o financiamento desse aprendizado para classes menos privilegiadas, que vão sofrer mais com essas mudanças.

Um exemplo claro está no ambiente de trabalho. Muitos funcionários já perceberam como a IA pode acelerar a produtividade, colaborar com ideias valiosas e aumentar a assertividade, mas algumas empresas ainda parecem ignorar esse contexto. Investindo em educação e treinamento sobre a forma correta de operação da tecnologia, é possível adotar estratégias que tragam benefícios a todos. Aliado a isso, políticas internas apontando o que é permitido ou não – e as possíveis sanções – ajudam a mitigar falhas do processo.

É necessário fomentar a capacitação e a educação, garantir a segurança e a privacidade dos dados, e promover a inclusão para que todos possam se beneficiar das vantagens que a IA pode oferecer. Por isso, é importante criar um ambiente onde os dados possam ser utilizados para treinar sistemas de IA de forma ética e responsável, respeitando a privacidade dos indivíduos e os princípios da LGPD. Somente assim poderemos aproveitar plenamente o potencial transformador da inteligência artificial, enquanto mitigamos seus riscos e desafios.

A velocidade com que a tecnologia evolui também é um grande problema: como regular algo que muda diariamente? O marco regulatório precisa ser suficientemente flexível para acompanhar essas transformações, sem sufocar a inovação. Uma legislação assertiva, que não sufoque a inovação, irá tornar o desenvolvimento de IA economicamente viável para muitas empresas. A regulação é uma oportunidade significativa para dar segurança aos investidores e garantir que a tecnologia seja desenvolvida e utilizada de maneira ética, segura e inclusiva.

É evidente que encontrar o equilíbrio entre proteger os direitos do indivíduo e do negócio sem prejudicar o desenvolvimento de tecnologias é um grande desafio, especialmente quando olhamos para todo o meio burocrático envolvido. Contudo, com certeza, precisamos conversar profundamente sobre tudo isso para chegar a uma conclusão, algo que é muito difícil de se fazer a curto prazo. Caso contrário, seguiremos em uma terra sem lei.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!