A Responsabilidade Solidária dos Administradores
O art. 1.016 do Código Civil faz recair responsabilidade solidária sobre os administradores quando atuam com culpa no desempenho de suas funções. Semelhantemente, o art. 158 da Lei das S.A. prevê a responsabilidade pessoal do administrador se este infringir a lei ou o estatuto social, rompendo os deveres de diligência ou lealdade, ou se agir com culpa ou dolo. Na prática, segundo Chiara Spadaccini de Teffé e Filipe Medon, isso exige conhecer as limitações dos algoritmos utilizados, evitando delegações excessivas a modelos de black-box — o que pode deixar o gestor ou a sociedade reféns de decisões automatizadas.
Parece-nos que a responsabilidade solidária dos administradores, no contexto do uso de IA, assume contornos especialmente relevantes em estruturas decisórias colegiadas. Quando o conselho de administração delibera coletivamente pela adoção de um sistema de IA sem a realização de due diligence técnica adequada, todos os membros que votaram pela aprovação podem, em tese, responder solidariamente pelos danos decorrentes — salvo se houver registro em ata de voto dissidente fundamentado, hipótese em que o administrador divergente pode ilidir sua responsabilidade pessoal.
A Teoria do Defeito de Organização Aplicada à IA
A "teoria do defeito de organização" reforça que as pessoas jurídicas têm a obrigação de estruturar-se adequadamente, adotar mecanismos de controle e precaução para prevenir ilícitos e riscos injustificados. A não implementação dessas medidas pode acarretar responsabilização específica, porque se considera que a corporação falhou ao não empregar todos os recursos razoáveis de proteção.
Verificou-se que, no domínio da IA, o defeito de organização pode manifestar-se de diversas formas: ausência de comitê de ética em IA, falta de processo formal de validação dos modelos antes de sua implantação em produção, inexistência de mecanismos de monitoramento contínuo do comportamento dos algoritmos, ausência de canal para que usuários reportem erros ou comportamentos inesperados, e falta de treinamento dos colaboradores para identificar e questionar recomendações algorítmicas inadequadas. Cada uma dessas omissões pode, isoladamente ou em conjunto, configurar defeito de organização capaz de fundamentar a responsabilidade da pessoa jurídica.
O Problema das Decisões Baseadas em Recomendações Algorítmicas
Em complemento, a doutrina lembra que a decisão do administrador ainda precisa adequar-se aos interesses da empresa e não aos interesses pessoais, devendo-se analisar se o agente agiu com a diligência de quem é probo e ativo na administração de seus próprios negócios. A esse respeito, se o algoritmo "recomenda" um curso de ação e o gestor o ignora sem justificação plausível, resultando em prejuízo, também pode surgir responsabilidade pela adoção de uma atitude contrária aos alertas da IA.
Essa dupla dimensão — responsabilidade por seguir cegamente o algoritmo e responsabilidade por ignorá-lo sem fundamento — ilustra o quanto o uso de IA nas decisões empresariais cria uma zona de risco jurídico para os administradores. Parece-nos que a saída mais razoável passa pela adoção de processos formais de tomada de decisão que documentem, de forma transparente, tanto os casos em que a recomendação algorítmica foi seguida quanto aqueles em que foi descartada, com registro das razões que justificaram cada escolha. Tal documentação pode servir, em caso de litígio, como prova da diligência do administrador.
Críticas ao Modelo de Responsabilidade Subjetiva para Gestores de IA
Do ponto de vista crítico, parece-nos que o modelo de responsabilidade subjetiva aplicado individualmente aos administradores é insuficiente para capturar a dimensão sistêmica dos riscos gerados pelo uso corporativo de IA. As decisões de adotar, implantar e escalar sistemas de inteligência artificial são tipicamente decisões coletivas, tomadas em contextos de informação assimétrica e sob pressão de tempo e de mercado. Impor responsabilidade pessoal ao administrador por comportamentos algorítmicos que ele não tinha condições técnicas de prever ou controlar pode gerar, paradoxalmente, incentivos para que as empresas evitem o uso de IA — ou, alternativamente, para que os administradores contornem as obrigações de governança de IA mediante estruturas jurídicas criadas precisamente para isolar o risco.
A crítica mais consistente ao regime atual, portanto, não é a de que ele seja demasiado severo, mas a de que ele seja simultaneamente severo demais — para o administrador individual que não tem condições de controlar o algoritmo — e brando demais — para a corporação que se beneficia dos ganhos de eficiência gerados pela IA sem arcar proporcionalmente com os riscos que impõe à coletividade.
O Papel da Boa-Fé Objetiva e da Função Social
A cláusula geral de boa-fé objetiva (art. 422 do Código Civil) e o princípio da função social do contrato (art. 421) fornecem fundamento adicional para a responsabilização das empresas que utilizam IA de forma descuidada ou abusiva. Verificou-se que esses princípios, no direito brasileiro contemporâneo, impõem deveres de conduta que vão além das obrigações expressamente pactuadas, incluindo deveres de informação, de cooperação e de lealdade — todos eles relevantes no contexto de relações assimétricas em que uma das partes utiliza IA para maximizar sua posição negocial ou decisória em detrimento da outra.
A função social da empresa, consagrada no art. 170 da Constituição Federal, acrescenta a essa equação a consideração dos interesses da coletividade, que pode ser afetada por decisões algorítmicas discriminatórias ou por sistemas de IA que perpetuam desigualdades estruturais. O art. 5º, X, que protege a intimidade, a vida privada, a honra e a imagem das pessoas, e o art. 5º, LXXIX, que assegura o direito à proteção de dados pessoais, constituem fundamentos constitucionais adicionais para a responsabilização de empresas que utilizam IA de forma que viole esses direitos fundamentais.
Considerações Finais: Uma Agenda Crítica para o Direito Empresarial da IA
As considerações críticas aqui desenvolvidas apontam para a necessidade de uma agenda renovada no direito empresarial brasileiro diante da IA. Essa agenda deve incluir: a revisão dos deveres de diligência dos administradores para incorporar explicitamente obrigações de governança de IA; a definição de padrões mínimos de organização interna para empresas que utilizam IA em decisões de alto impacto; a criação de mecanismos de responsabilidade corporativa que não dependam exclusivamente da demonstração de culpa individual de administradores; e o fortalecimento das obrigações de transparência e prestação de contas (accountability) dos operadores de sistemas de IA.
Parece-nos que, sem essa agenda, o direito brasileiro correrá o risco de permanecer um passo atrás da realidade tecnológica, respondendo reativamente a danos já consumados em lugar de estabelecer, de forma preventiva, as condições para que o uso de IA seja responsável, transparente e compatível com os valores fundamentais do ordenamento jurídico.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".