Inteligência Artificial, ética e responsabilidade: desafios de hoje para a tecnologia do futuro

Inteligência artificial é um tema que atrai diferentes concepções: quem não conhece as aplicações da tecnologia, tem medo. Para aqueles que sabem o impacto de uma IA, as vantagens e benefícios para a operação dos negócios é algo almejado. A verdade é que a inteligência artificial já faz parte do dia a dia da sociedade, em aplicativos de celular ou nas Smart TVs, e à medida que essa tecnologia se aprofunda em nossa rotina, a necessidade de garantir seu uso responsável também aumenta: riscos financeiros e de reputação, causados por falhas de IA, são reais, e precisam ser considerados quando a aplicação da tecnologia é estudada.

Nos negócios, operar inteligência artificial de forma responsável pode trazer diversos benefícios que vão além das vantagens tecnológicas. Mais segurança resulta em confiança do consumidor, que gera fidelidade e, como consequência, acontece aumento de receitas. Recentemente, o Boston Consulting Group divulgou seu Trust Index, que avalia o nível de confiança das empresas, e mostrou que as 100 empresas mais confiáveis do mundo conseguem gerar até 2,5 vezes mais retorno econômico. O uso responsável de uma inteligência artificial também diferencia a marca, além de atrair e reter talentos, já que um programa de IA responsável e bem construído capacita os trabalhadores a inovar livremente dentro dos limites da ética da IA.

Assim, é compreensível que muitas áreas queiram explorar o uso da inteligência artificial em seus respectivos campos, e diversos setores já usam a tecnologia para otimizar a produtividade nas operações, facilitar a rotina de pessoas e organizações, e até mesmo o cuidado com a saúde já pode ser “otimizado” com o auxílio de IA – o crescimento da inovação na área foi exponencial, e levou a Organização Mundial da Saúde a lançar um relatório com orientações sobre ética em IA de saúde. Segundo o documento, a adoção dessa inovação em processos relacionados do setor tem o dever de ser segura, transparente e responsável.

Leia também: ANPD publica dosimetria da LGPD e multas podem (finalmente) ser aplicadas

Desenvolvida para facilitar o dia a dia, é preciso lembrar que a inteligência artificial também é criada por mãos humanas – passíveis de erros e falhas éticas, e que podem “ensinar errado” para a máquina. Não faltam exemplos que deram errado, com chat-bots fazendo declarações racistas e sexistas após interações com trolls na internet, ou sistemas que deliberadamente excluem um público específico de forma discriminatória. Assim, é clara a necessidade de regras que guiem a ética e a responsabilidade na aplicação de IA em suas diversas possibilidades. Mas, como garantir que uma tecnologia não será discriminatória? Como cuidar para que um projeto tecnológico abranja diferentes idiomas, características de gênero, de etnias, nacionalidades, faixas etárias?

Em 2018, a UNESCO abriu um diálogo sobre a caminhada para um “código moral” global voltado para as tecnologias de IA e machine learning. Em uma entrevista do francês Marc-Antoine Dilhac, publicada pela entidade, o especialista afirma que qualquer pesquisa científica sem diretrizes sociológicas ou jurídicas é propensa a problemas éticos. Ainda de acordo com a organização, é preciso um quadro regularizado para guiar pesquisas futuras sobre ética em escala global. Empresas que reconhecem a necessidade de uma IA responsável podem começar, por exemplo, desenvolvendo princípios que orientem suas ações.

Seguindo essa linha, o Boston Consulting Group lançou seu próprio código de conduta, que guiará as ações com clientes. A ideia é ter, em um só lugar, algo que guie o desenvolvimento de novas ferramentas tecnológicas sem deixar a responsabilidade de lado – a consultoria entende sua obrigação de garantir que essas soluções tenham um impacto transformador nos negócios, sem prejudicar pessoas ou comunidades.

A inteligência artificial pode causar impactos transformadores nos negócios, e criar barreiras para proteger tanto o sistema quanto seus dados reduz a probabilidade de comportamentos e resultados prejudiciais, que não são intencionais. Com a certeza de sistemas seguros e justos, a tendência é evoluir cada vez mais as aplicações e capacidades de uma IA – que não tem limites.

*Alexandre Montoro é diretor executivo e sócio do BCG