O algoritmo errou — e agora? A responsabilidade dos administradores na era da inteligência artificial

Em um mundo que parece cada vez mais governado por linhas de código do que por linhas de raciocínio, a figura do administrador de empresas — outrora protagonista das decisões estratégicas — começa a dividir o palco com um novo ente: o algoritmo. Não qualquer algoritmo, mas um dotado de uma suposta “inteligência”, que promete respostas precisas, imparciais e mais eficientes do que qualquer executivo de carne e osso. No entanto, como bem alertou Norbert Wiener, o pai da cibernética, “nós criamos uma ferramenta poderosa, mas será que sabemos realmente usá-la sem nos autodestruir?”. É nesta interseção entre inteligência artificial, decisões corporativas e responsabilidade dos administradores que reside uma das questões mais instigantes da contemporaneidade jurídica: quem responde quando o cérebro de silício erra?
A crescente utilização de sistemas de inteligência artificial (IA) em conselhos de administração e altos escalões corporativos não é mais tendência, é realidade. O caso emblemático da Deep Knowledge Ventures, um fundo de investimentos de Hong Kong que, em 2014, nomeou um algoritmo chamado VITAL como membro com direito a voto no seu comitê executivo, escancarou a provocação: se a decisão for mal sucedida, quem responde? A IA, que não tem personalidade jurídica? Os desenvolvedores, que sequer participaram do contexto empresarial? Ou os administradores, que “terceirizaram” sua função fiduciária a um sistema algorítmico? A legislação societária brasileira, ainda muito ancorada no paradigma clássico da culpa do agente humano, começa a demonstrar claros sinais de exaustão frente a este novo cenário.
A Lei das Sociedades por Ações (Lei nº 6.404/76) define com clareza que os administradores têm o dever de diligência, lealdade e informar adequadamente os acionistas. São, em essência, mandatários da sociedade, com responsabilidade objetiva no caso de atos ilícitos e subjetiva nos atos de gestão. Até aqui, nenhuma surpresa. Mas como qualificar a conduta de um administrador que decide seguir a recomendação de um modelo de IA, cuja operação envolve redes neurais profundas, aprendizado não supervisionado e um nível de opacidade que nem mesmo seus criadores conseguem explicar totalmente? Estamos diante da figura do “black box problem” — o algoritmo decide, mas não conseguimos compreender nem explicar como chegou àquela conclusão. O paradoxo é evidente: o administrador deve agir com diligência, mas é compelido a confiar em ferramentas que funcionam justamente pela sua capacidade de operar além da lógica humana.
Leia também: À frente da Bitso no Brasil, Bárbara Espir quer mais mulheres no mercado de cripto
Este cenário demanda uma releitura dos deveres fiduciários à luz da tecnologia. A prudência do administrador, antes limitada ao que se espera de um profissional médio, passa a exigir uma competência digital ampliada. O gestor diligente do século XXI deve não apenas entender os fundamentos técnicos dos sistemas que utiliza, mas também garantir que os vieses algorítmicos sejam minimizados, que as fontes de dados sejam confiáveis e que as decisões da IA possam ser auditadas ex post. Em suma, a delegação à IA não exime o administrador de responsabilidade, mas antes aumenta o seu ônus: ele deve ser capaz de justificar, perante o acionista, o regulador e o juiz, porque optou por confiar no algoritmo e quais salvaguardas foram implementadas.
Nos Estados Unidos, a doutrina do “Business Judgment Rule” historicamente confere uma ampla margem de manobra aos administradores, desde que suas decisões sejam informadas, de boa-fé e no melhor interesse da companhia. A questão é: decisões informadas por quem? Se o input vem de um sistema de IA, deve-se considerar que a decisão ainda foi do administrador, ou houve uma substituição de vontade? A jurisprudência americana começa a tangenciar a questão, como no caso In re Facebook, Inc. Section 220 Litigation, onde se debateu o uso de sistemas automatizados de moderação e seu impacto em obrigações fiduciárias. Ainda que distante do contexto empresarial puro, a lógica é semelhante: quando um sistema automatizado age em nome da empresa, o board deve garantir governança e accountability sobre esse sistema.
Na Europa, o debate é ainda mais normativo. O projeto de Regulação de Inteligência Artificial da União Europeia propõe obrigações específicas de transparência, avaliação de risco e governança para sistemas de IA de alto risco, categoria na qual se encaixariam modelos usados em decisões financeiras, contratuais ou de recursos humanos. A responsabilização, nesse contexto, não desaparece, mas se distribui: administradores, desenvolvedores, provedores de dados e operadores do sistema são todos partícipes de uma cadeia de deveres que visa mitigar os danos da opacidade algorítmica.
A lógica é análoga à da responsabilidade civil em produtos defeituosos, mas com um twist digital: o dano não é físico, mas decisório. A decisão defeituosa pode não matar ninguém, mas pode destruir milhões em valor de mercado — e neste mundo, isso é o equivalente corporativo à morte.
No Brasil, a resposta jurídica ainda é tímida. O Marco Legal da Inteligência Artificial (PL 2.338/2023) caminha lentamente, com propostas que oscilam entre o maximalismo regulatório e o laissez-faire digital. A jurisprudência ainda engatinha, e os reguladores — como o Banco Central, a CVM e o CADE — começam a emitir orientações sobre o uso ético de IA, mas ainda sem a densidade normativa necessária para enfrentar casos complexos. Isso coloca os administradores em uma situação kafkiana: são cobrados por decisões diligentes, mas não têm parâmetros claros sobre como se comportar diante da IA. Assim, a prudência se transforma em temor, e a inovação cede espaço à inércia.
A resposta para esse impasse talvez não esteja apenas no direito positivo, mas na incorporação de novos critérios éticos e epistemológicos ao direito societário. A responsabilidade precisa evoluir de uma métrica puramente causal para uma métrica de governança: qual foi o processo decisório que levou à escolha de determinado sistema de IA? Quais foram os mecanismos de monitoramento implementados? Houve consulta a especialistas independentes? O sistema foi testado contra vieses e falhas? Essa mudança de paradigma implica deslocar o foco do resultado para o procedimento. E isso exige, sim, um novo tipo de administrador — mais filósofo do que tecnocrata.
Afinal, como bem pontuou Hannah Arendt, a banalidade do mal nasce da abdicação do juízo crítico. Aplicado ao mundo corporativo, esse insight é precioso: delegar decisões a sistemas de IA sem reflexão crítica é uma forma moderna de abdicação. O administrador que se esconde atrás do algoritmo age como Pôncio Pilatos digital, lavando as mãos diante de uma inteligência que ele mesmo autorizou, mas que afirma não compreender. É nesse ponto que o direito deve intervir não para impedir a inovação, mas para garantir que ela não se torne escudo para irresponsabilidade.
É nesse sentido que autores como Luciano Floridi têm defendido a ideia de uma “ética da infosfera”, onde os agentes humanos continuam a ser os únicos verdadeiramente responsáveis por decisões, mesmo quando mediadas por máquinas. A IA, afinal, ainda não é sujeito de direito.
Cabe, portanto, ao administrador moderno recuperar o ethos da liderança responsável. Não basta ser um executor de recomendações algorítmicas.
É preciso ser curador de inteligência, zelador da integridade decisória e garantidor da accountability corporativa. Isso envolve não apenas compreender tecnicamente a IA, mas incorporar ao processo decisório práticas como auditoria de algoritmos, comitês de ética tecnológica e relatórios de impacto algorítmico. Empresas como a IBM e o Google já implementam tais práticas em suas áreas de governança de IA, cientes de que o risco reputacional e jurídico de uma decisão automatizada mal calibrada é simplesmente inaceitável.
Se quisermos preservar a função do administrador como agente racional, ético e responsável, precisamos reconhecer que a IA não elimina a necessidade de julgamento humano — apenas a desloca para outro nível. A era algorítmica não exige menos dos administradores. Exige mais. Mais preparo, mais consciência, mais diligência. A máquina pode ser rápida, mas não é prudente. Pode ser precisa, mas não é justa. E, acima de tudo, pode ser poderosa, mas não é responsável.
E se um dia for? Se criarmos uma IA com consciência e intencionalidade, que possa ser responsabilizada como um sujeito de direito? Nesse caso, teríamos que reescrever não apenas a legislação societária, mas os fundamentos filosóficos do próprio direito. Até lá, o veredito é claro: na dúvida, responsabilize o humano. Pois, como dizia Sartre, estamos condenados à liberdade — inclusive a de errar com máquinas inteligentes ao nosso lado.
Esse é o novo imperativo do administrador na era algorítmica: não ser menos humano, mas mais. Porque é justamente na fronteira entre o cálculo impessoal da máquina e a imperfeição ética do juízo humano que se forja a responsabilidade verdadeira. E talvez — apenas talvez — seja aí que reside a única esperança de sobrevivência para uma civilização que já programou seus cérebros, mas ainda não soube programar suas consciências.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!