Governança e compliance são essenciais para a diferenciação no uso de Inteligência Artificial nas organizações

governança, segurança, regulação, regulamentação, inteligência artificial, ia

Por Alex Borges e Priscilla Moraes

Estabelecer uma governança sólida e integrada e adequar-se às regulamentações estão – ou deveriam estar – entre as principais preocupações para a implementação e o uso de inteligência artificial nas organizações. Essa conclusão tem sido apontada com bastante consistência pela pesquisa global State of GenAI, que a Deloitte realiza trimestralmente desde o início de 2024, ouvindo lideranças de diversos países, entre eles o Brasil.

O levantamento de dados divulgado em março deste ano, realizado com 2,8 mil executivos C-level de empresas que já têm ao menos uma aplicação de IA em implementação, traz as principais barreiras para o desenvolvimento e implantação bem-sucedidos de ferramentas e aplicativos de IA generativa. Das lideranças entrevistadas, 36% relatam preocupações com a conformidade regulatória, 30% citam dificuldades em gerenciar riscos e 29% informam sentir falta de um modelo de governança.

Os dados da pesquisa indicam que o impacto positivo da Inteligência Artificial deve coexistir com instrumentos de transparência, confiabilidade e segurança capazes de, além de impulsionar resultados, fortalecer a sustentabilidade dos negócios e a reputação das organizações.

Leia também: Estudo da Jitterbit revela crescente demanda por IA e automação para solucionar a “divisão de dados”

Regulamentações vigentes, como a da União Europeia, têm servido de inspiração a diversos mercados e organizações. No Brasil, o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD) são referências, embora não abranjam novos contextos inaugurados pela inteligência artificial. Nesse sentido, há o substitutivo ao projeto de lei 2.338/2023, aprovado pelo Senado com propostas para regulamentação, desenvolvimento e uso da IA, que está em avaliação na Câmara dos Deputados. É crucial, porém, que em complemento à conformidade com as legislações, as organizações construam sua própria governança interna para o tema, de acordo com as particularidades de seus negócios e dos mercados e setores em que atuam, bem como alinhada à estratégia empresarial.

A adoção da Inteligência Artificial nas organizações geralmente é determinada ou passa pelo crivo da alta gestão das companhias e é apoiada pelas áreas de tecnologia. E embora a integração da IA venha se provando uma das inovações mais relevantes à economia e à sociedade desde a internet, ela também requer mudanças culturais e de compliance, respectivamente para engajar públicos e conter ou mitigar ameaças e prejuízos.

Para entender o melhor caminho para a governança, antes é preciso compreender a IA. Essa tecnologia opera por meio de algoritmos sequenciais de instruções que permitem a um computador executar tarefas. Eles são projetados para identificar padrões e tomar decisões, atuando na automatização de demandas repetitivas, previsão de comportamentos e tendências, interações mais assertivas com públicos-alvo e geração de relatórios e insights em larga escala, entre outros.

O desenvolvimento de algoritmos requer altos níveis de experiência e conhecimento, desde sua construção à validação. O ideal é que envolva estruturação com padrões éticos mínimos desejados, transparência na automação da tomada de decisões e controles para prevenir vieses prejudiciais relacionados a temas sociais e polemizações. Como há crescente demanda da IA para necessidades cada vez mais específicas, organizações empresariais que priorizaram investimentos na tecnologia não somente têm adquirido softwares de mercado, mas têm contratado o desenvolvimento proprietário de soluções.

Em âmbito global, as cinco principais ações que as organizações estão atualmente tomando para gerenciar riscos em torno da implementação da GenAI incluem: 51% estabelecer uma estrutura de governança para o uso de ferramentas e aplicativos; 49% monitorar requisitos regulatórios e garantir a conformidade; 43% usar um grupo ou conselho formal para aconselhar sobre riscos relacionados; 37% manter um inventário formal de todas as implementações; 35% usar fornecedores externos para conduzir auditorias e testes independentes.

Segundo a pesquisa State of GenAI no Brasil (houve 115 respondentes), 68% das organizações empresariais estão conduzindo auditorias e testes internos das ferramentas que usam GenAI; 45% treinando profissionais para reconhecer e mitigar riscos; 40% estabelecendo uma estrutura de governança para o uso de ferramentas e aplicativos; 38% procurando garantir que um humano valide o conteúdo gerado; 35% monitorando requisitos regulatórios para garantir conformidade.

O levantamento frisa que a adoção e a sequência da IA nas organizações precisa ocorrer da forma mais estratégica e segura possível, atentando para o aumento da eficiência e da redução dos custos operacionais, entrega de produtividade e inovação, evolução e rearranjo das pessoas de acordo com os novos perfis profissionais, em consonância com a agenda econômica e de regulamentação do País, para o alcance melhores resultados sustentáveis para todos.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!