Como 3 fatores regulatórios estão pressionando empresas a revisar o uso de IA
O aumento da regulação global sobre o uso da inteligência artificial (IA) tem pressionado empresas a integrarem diretrizes claras sobre o uso ético dessa tecnologia em seus códigos de conduta. Lauren Kornutick, diretora de análise da prática de conformidade e jurídico da Gartner, defende que essa incorporação é vital diante de novas legislações, como a Lei de IA da União Europeia e as regulamentações sobre viés de IA em Nova York.
Kornutick aponta três razões principais para que os líderes de conformidade priorizem a inclusão de diretrizes sobre IA. Primeiro, o uso disseminado da IA pelos funcionários, que, sem orientação adequada, podem expor dados sensíveis, tomar decisões enviesadas ou criar comunicações enganosas. Em segundo lugar, o aumento do escrutínio regulatório, com alertas de órgãos como o Departamento de Justiça dos EUA, exige um controle mais rigoroso.
Por fim, investidores, fornecedores e clientes demandam maior transparência sobre as medidas de controle adotadas pelas empresas em relação ao uso de IA.
Leia também: Para 31% das mulheres na TI, homens são promovidos mais rapidamente
“Esses códigos atuam como um recurso importante para funcionários que buscam diretrizes corporativas e para partes interessadas que acompanham a governança das empresas”, afirma Kornutick.
Ela também oferece orientações para a inclusão de diretrizes sobre IA nos códigos de conduta. O primeiro passo é alinhar essas diretrizes com as políticas já existentes da empresa. “Os líderes de conformidade devem usar a oportunidade para reforçar valores corporativos, ligando o uso ético da IA aos princípios da empresa, o que pode passar uma mensagem clara para as equipes”, diz.
A segunda orientação é fornecer exemplos práticos de como os funcionários devem agir. Explicar a relevância da IA no contexto do negócio, como a oferta de soluções mais ágeis, pode aumentar a responsabilidade pelo uso ético da tecnologia. “O código deve incluir exemplos específicos de responsabilidades, como para quem projeta, implementa ou testa IA, além de orientar os executivos sobre suas obrigações em relação a equipes, fornecedores e processos”, detalha.
Kornutick alerta, no entanto, para o risco de exagerar nos controles sobre IA, recomendando que as diretrizes se mantenham consistentes com as políticas já vigentes. A especialista também destaca a importância da atuação proativa dos líderes jurídicos e de conformidade, desde a identificação dos riscos até a criação de planos de mitigação, com equipes compostas por especialistas em áreas como TI, jurídico e segurança.
Por fim, Kornutick reforça que novas soluções de IA devem ser testadas antes de serem adotadas, para garantir a segurança e conformidade com as normas.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!