Voltar ao Blog
ImputaçãoCapítulo 3

O Nexo de Imputação e os Regimes de Responsabilidade: Fundamentos Jurídicos

Fundamentos jurídicos do nexo de imputação na responsabilidade por IA: negligência, responsabilidade contratual, empresarial e deveres de diligência no Código Civil e Lei das S.A.

Alessandro Lavorante 18 de fevereiro de 2025 6 min de leitura

A Negligência como Fundamento da Imputação no Contexto da IA

Em campo contemporâneo, a negligência do produtor ou usuário de IA pode ser um recurso para imputar responsabilidade quando não houver outro regime aplicável, ainda que se enfrentem desafios probatórios dada a complexidade dos sistemas. O conceito de negligência pressupõe a omissão de diligência que seria razoavelmente exigível, tendo em conta as circunstâncias do caso e o estado da técnica à época da conduta. No domínio da inteligência artificial, esse padrão de cuidado é necessariamente dinâmico, pois evolui com o próprio desenvolvimento tecnológico e com o aprimoramento das melhores práticas de segurança em IA.

Parece-nos que a definição de um padrão mínimo de diligência para desenvolvedores e operadores de IA constitui tarefa urgente para legisladores e órgãos regulatórios. O AI Act europeu avança nessa direção ao estabelecer, para sistemas de alto risco, obrigações específicas de gestão de risco, qualidade dos dados, transparência e supervisão humana — cujo descumprimento pode ser interpretado como negligência normativa. No Brasil, o PL 2.338/2023 ainda carece de detalhamento regulamentar equivalente, embora o art. 27, § 2º, ao estabelecer presunção de culpa para sistemas de risco moderado, sugira que o descumprimento de boas práticas reconhecidas pode configurar culpa presumida.

Responsabilidade Extracontratual e os Limites Probatórios

Quanto à responsabilidade extracontratual, os regimes de imputação subjetiva enfrentam limitações na prova da culpa do agente humano que utiliza IA, dada a necessidade de demonstrar o nexo causal e a falha do tomador de decisão. Essa dificuldade probatória é estrutural, não meramente contingente: a própria arquitetura dos sistemas de machine learning — que identificam padrões em grandes volumes de dados sem que nenhum programador tenha explicitado as regras de decisão — torna praticamente impossível, em muitos casos, a reconstituição do raciocínio que levou o algoritmo a produzir determinado resultado.

Verificou-se que o fenômeno da "caixa-preta" algorítmica constitui, portanto, um obstáculo epistemológico à aplicação dos regimes subjetivos clássicos. A solução jurídica não pode ignorar essa realidade técnica, devendo o direito adaptar seus instrumentos probatórios — mediante perícias especializadas, auditorias algorítmicas e obrigações de documentação — para que a tutela efetiva da vítima não seja comprometida pela complexidade do sistema causador do dano.

A Responsabilidade Contratual e os Danos a Terceiros

A responsabilidade contratual, embora se aplique às obrigações de venda ou prestação de serviços envolvendo sistemas de IA, mostra-se insuficiente para abarcar danos a terceiros ou cenários em que a IA é usada por estranhos ao contrato. Parece-nos que essa insuficiência é especialmente marcante em casos de IA generativa utilizada em plataformas abertas ao público, onde o desenvolvedor do modelo base não mantém relação contratual com os usuários finais que podem ser prejudicados por conteúdo gerado pelo sistema.

A Responsabilidade Empresarial pelo Uso de IA

No âmbito empresarial, a transferência de capacidade decisória para algoritmos sem cautelas adequadas pode gerar responsabilidade em diferentes esferas. A pessoa jurídica e seus gestores devem organizar suas atividades com modelos de controle que previnam ilícitos e, se não o fizerem, respondem por omissão. Os administradores de sociedades, por força do art. 153 da Lei das S.A. e do art. 1.011 do Código Civil, devem aplicar grau elevado de diligência em prol dos interesses da pessoa jurídica.

O art. 153 da Lei das S.A. determina que "o administrador da companhia deve empregar, no exercício de suas funções, o cuidado e diligência que todo homem ativo e probo costuma empregar na administração dos seus próprios negócios". Tal dispositivo, lido à luz das exigências contemporâneas de governança de IA, impõe ao administrador o dever de compreender, ao menos em linhas gerais, o funcionamento dos sistemas de IA que utiliza nas decisões empresariais, de implementar mecanismos de controle e monitoramento e de não se eximir de responsabilidade mediante delegação irrestrita ao algoritmo.

O Dever de Diligência do Administrador Frente aos Algoritmos

Parece-nos que o dever de diligência do administrador, no contexto da IA, desdobra-se em ao menos três dimensões práticas. A primeira é a dimensão técnica: o administrador deve assegurar-se de que os sistemas de IA adotados pela empresa tenham sido validados adequadamente e sejam passíveis de auditoria. A segunda é a dimensão organizacional: a empresa deve dispor de estrutura interna capaz de monitorar continuamente o comportamento dos algoritmos e de intervir quando necessário. A terceira é a dimensão regulatória: o administrador deve manter-se atualizado quanto às obrigações legais aplicáveis ao uso de IA em seu setor de atividade, especialmente à luz do PL 2.338/2023 e das regulamentações setoriais emanadas de órgãos como o Banco Central, a ANS e a ANVISA.

A Lei das S.A. e a Responsabilidade do Administrador

O art. 158 da Lei das S.A. prevê a responsabilidade pessoal do administrador quando este infringir a lei ou o estatuto social, rompendo os deveres de diligência ou lealdade, ou se agir com culpa ou dolo. Na prática, segundo Chiara Spadaccini de Teffé e Filipe Medon, isso exige conhecer as limitações dos algoritmos utilizados, evitando delegações excessivas a modelos de black-box — o que pode deixar o gestor ou a sociedade reféns de decisões automatizadas.

A dependência irrestrita de sistemas de IA nas decisões estratégicas ou operacionais de uma empresa, sem que os administradores compreendam os critérios de decisão do algoritmo nem disponham de mecanismos para questionar seus resultados, configura, a nosso ver, violação do dever de diligência. Tal violação não é meramente formal: ela representa risco real para a empresa, para seus acionistas, para seus clientes e para terceiros que possam ser afetados pelas decisões automatizadas.

A Teoria do Defeito de Organização

Nesse cenário, a "teoria do defeito de organização" reforça que as pessoas jurídicas têm a obrigação de estruturar-se adequadamente, adotar mecanismos de controle e precaução para prevenir ilícitos e riscos injustificados. A não implementação dessas medidas pode acarretar responsabilização específica, porque se considera que a corporação falhou ao não empregar todos os recursos razoáveis de proteção.

Verificou-se que essa teoria, originalmente desenvolvida no contexto do direito penal empresarial alemão, encontra eco no direito civil brasileiro por meio da cláusula geral de boa-fé objetiva (art. 422 do Código Civil) e do princípio da função social da empresa. A empresa que adota sistemas de IA sem a devida estrutura de governança responde não apenas pelos danos individuais causados, mas eventualmente por danos difusos, coletivos ou individuais homogêneos, sujeitos à tutela coletiva prevista no CDC e na Lei da Ação Civil Pública.

A combinação entre os fundamentos clássicos do nexo de imputação — negligência, responsabilidade contratual e extracontratual — e os deveres específicos de diligência impostos aos administradores pelo direito societário configura o substrato jurídico fundamental para a análise da responsabilidade empresarial pelo uso de IA no ordenamento brasileiro.

Responsabilidade SubjetivaResponsabilidade ObjetivaNexo de Imputação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.