IA será responsável por 20% da força de trabalho global até 2028, diz Gartner

IA Gartner

Até o ano de 2028, as máquinas baseadas em inteligência artificial (IA) serão responsáveis por 20% da força de trabalho global e 40% de toda a produtividade econômica, estima uma nova projeção do Gartner. Com essa perspectiva em mente, a consultoria destaca a importância do conceito de “AI TRiSM”, uma diretriz que dá suporte à governança, confiabilidade, imparcialidade, segurança, solidez, eficácia e privacidade ao modelo de inteligência artificial.

De acordo com o Gartner, as companhias que implementarem transparência, confiança e segurança no uso de IA nos próximos três anos verão os seus modelos de tecnologia alcançarem uma melhoria de 50% em termos de adoção, conquista de objetivos de negócios e aceitação de quem os utilizam.

Preocupado com a ascensão desenfreada da IA, Mark Horvath, vice-presidente e analista do Gartner, alerta que os diretores de segurança da informação (CISOs) não podem permitir que a Inteligência Artificial controle suas empresas. Em sua visão, a inteligência artificial exige novas formas de gestão de confiança, risco e segurança (TRiSM) que os controles convencionais não oferecem.

Leia também: Gigantes da tecnologia ajustam preços devido aos custos da IA generativa

O analista destaca que os CISOs precisam defender o “AI TRiSM” para melhorar os resultados de tecnologia, aumentar a velocidade do modelo de inteligência artificial até a produção e permitir uma melhor governança ou racionalizando o portfólio de modelos de inteligência artificial. “Assim, pode-se eliminar até 80% de informações falsas e ilegítimas”, indica Horvath.

Horvath lembra que a inteligência artificial não só representa riscos consideráveis ​​para os dados, uma vez que conjuntos de informações sensíveis são frequentemente utilizadas para treinar modelos de tecnologia, como também a precisão dos resultados dos próprios modelos e a qualidade dos conjuntos de dados podem variar ao longo do tempo, o que pode causar consequências adversas.

Segundo o Gartner, a implementação de AI TRiSM permite que as empresas entendam o que seus modelos de inteligência artificial estão fazendo, até que ponto eles se alinham com as intenções originais, além de indicar o que pode ser esperado em termos de desempenho e de valor comercial.

Ascensão da IA representa riscos corporativos

O Gartner alerta que as empresas correm o risco de implementarem centenas ou milhares de modelos de IA que os próprios líderes de TI não serão capazes de explicar ou de interpretar. Para os analistas, as empresas que não forem capazes de gerenciar os riscos associados à inteligência artificial estão muito mais propensas a obterem violações e resultados negativos. Os modelos de IA podem não funcionar como planejando, ocorrendo falhas de segurança e de privacidade, além de danos aos indivíduos, perdas financeiras e de reputação. A IA que é executada indevidamente também pode levar companhias a tomarem más decisões de negócios.

Veja mais: 3 passos para uma boa implementação de IA generativa

Jeremy D’Hoinne, vice-presidente e analista do Gartner, defende que a AI TRiSM entra como um “esporte de equipe”. “A AI TRiSM não pode ser liderada por uma única unidade de negócios porque exige educação e colaboração entre equipes”, afirma o executivo. Para ele, os CISOs devem ter uma compreensão clara de suas responsabilidades com a inteligência artificial dentro das equipes que podem incluir funcionários de TI, de times jurídicos, de conformidade e de análise de dados.

“Sem um programa AI TRiSM robusto, os modelos de inteligência artificial podem funcionar contra o negócio, introduzindo riscos inesperados, o que causa resultados adversos do modelo, violações de privacidade, danos substanciais à reputação e outras consequências negativas”, afirma o analista.

Prioridades no gerenciamento de risco de IA

Já que a inteligência artificial pode ser vista como qualquer outra aplicação, o Gartner indica que os CISOs devem recalibrar as expectativas dentro e fora de suas equipes. Uma vez definidas as expectativas, esses líderes e seus times precisam tomar cinco ações de gestão de riscos de Inteligência Artificial. São elas:

  1. Capturar a extensão da exposição, inventariar a inteligência artificial utilizada na empresa e garantir o nível certo de explicabilidade;
  2. Conscientizar as equipes de sua empresa e liderar uma campanha formal de educação sobre os riscos da inteligência artificial;
  3. Apoiar a confiabilidade, fiabilidade e segurança dos modelos, incorporando a gestão de riscos em suas operações;
  4. Eliminar a exposição de dados internos e partilhados de inteligência artificial por meio da adoção de programas de proteção e privacidade de dados;
  5. Adotar medidas específicas de segurança de inteligência artificial para proteger de eventuais ataques, garantir resistência e resiliência.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!