Voltar ao Blog
Nexo de CausalidadeCapítulo 2

As Teorias da Causalidade: Considerações Críticas

Considerações críticas sobre as teorias da causalidade e o nexo de imputação na responsabilidade civil por IA, com análise do PL 2338/23, Código Civil e AI Act europeu.

Alessandro Lavorante 23 de janeiro de 2025 6 min de leitura

Introdução

Ao longo do Capítulo 2, examinou-se o conjunto das principais teorias da causalidade aplicáveis à responsabilidade civil por inteligência artificial. Percorremos desde os fundamentos clássicos da equivalência das condições e da causalidade adequada até as formulações mais recentes da causalidade probabilística, da presunção de causalidade e da causalidade psíquica. É chegado o momento de formular considerações críticas sobre esse percurso teórico e de identificar os limites e as potencialidades de cada abordagem no enfrentamento dos desafios impostos pelos sistemas de IA. Parece-nos que esse balanço crítico é condição necessária para o avanço do estudo em direção ao tema central do próximo capítulo: os critérios de imputação de responsabilidade.

Os Limites das Teorias Clássicas

As teorias clássicas da causalidade — equivalência das condições e causalidade adequada — apresentam limitações evidentes quando aplicadas a sistemas de inteligência artificial. A equivalência das condições, ao tratar toda condição necessária para o resultado como causa juridicamente relevante, produz uma responsabilidade excessivamente ampla em ecossistemas tecnológicos complexos: se toda condição que contribuiu para o desenvolvimento do sistema fosse considerada causa do dano, a responsabilidade poderia recair sobre fabricantes de chips, provedores de infraestrutura de nuvem, pesquisadores que publicaram artigos utilizados no treinamento do modelo — uma expansão inaceitável.

A causalidade adequada, por sua vez, limita a responsabilidade às condutas que, segundo um juízo de probabilidade fundado na experiência ordinária, eram adequadas para produzir o resultado. Essa limitação é bem-vinda, mas apresenta uma dificuldade específica no contexto da IA: a experiência ordinária ainda não acumulou dados suficientes sobre o comportamento de sistemas altamente complexos e autônomos, tornando incerto o juízo sobre quais condutas são "adequadas" para produzir determinados danos.

A Imputação Objetiva como Solução Intermediária

A teoria da imputação objetiva, derivada da dogmática penal alemã e adaptada ao direito civil, oferece uma solução intermediária que parece-nos mais adequada ao contexto tecnológico. Ao perguntar não apenas "o que causou o dano?" mas "a quem se pode imputar juridicamente a criação do risco que se materializou no dano?", a imputação objetiva introduz critérios normativos — risco proibido, escopo da norma — que permitem uma seleção mais refinada dos agentes responsáveis.

Verifica-se, assim, que avaliar se o agente agiu dentro dos limites impostos por normas protetivas remete diretamente ao conceito de risco proibido e de escopo normativo. No contexto da IA, isso significa perguntar: o desenvolvedor do sistema cumpriu os requisitos de governança, transparência e segurança impostos pelo PL 2338/23? O operador garantiu a supervisão humana exigida para sistemas de alto risco? O usuário utilizou o sistema nos limites definidos pelo fornecedor? Essas perguntas permitem uma distribuição de responsabilidade que reflita a contribuição efetiva de cada agente para a criação do risco.

A Transição para o Nexo de Imputação

A correta identificação dos elementos formadores da responsabilidade civil — conduta, dano e nexo de causalidade — é apenas uma parte da equação. Para que a responsabilização seja efetivamente atribuída a alguém, seja na forma subjetiva ou objetiva, faz-se necessário avançar no debate sobre o nexo de imputação.

Há uma distinção conceitual fundamental que não pode ser negligenciada: se o nexo causal nos mostra quem é a causa do dano, o nexo de imputação nos esclarece a razão pela qual se atribui o dever de reparar a um determinado sujeito. O nexo de imputação abarca a análise de culpa, dolo, risco e os elementos normativos e teóricos que justificam a responsabilização — elementos que vão além da mera constatação do liame causal.

Essa distinção é especialmente relevante no contexto da IA: um sistema de inteligência artificial pode ser tecnicamente a causa de um dano sem que, por isso, seu desenvolvedor, operador ou usuário seja juridicamente imputável — seja porque agiu dentro dos limites do risco permitido, seja porque o dano decorreu de circunstâncias fortuitas externas, seja porque a intervenção de terceiro rompeu o nexo causal. O nexo de imputação, portanto, é o filtro jurídico que traduz a constatação causal em dever de reparar.

A Influência do AI Act e do PL 2338/23 no Nexo de Imputação

O AI Act (Regulamento UE 2024/1689) e o PL 2338/23 contribuem para a construção do nexo de imputação ao estabelecer obrigações regulatórias cujo descumprimento funciona como elemento de imputação. O art. 16 do AI Act, por exemplo, lista as obrigações dos fornecedores de sistemas de IA de alto risco, cujo descumprimento cria presunção de responsabilidade pelos danos decorrentes. Do mesmo modo, o art. 19 do PL 2338/23, ao exigir avaliações de impacto para sistemas de alto risco, torna o descumprimento dessas obrigações um elemento central do nexo de imputação no ordenamento brasileiro.

Verifica-se, portanto, que o nexo de imputação em matéria de IA é crescentemente construído sobre bases regulatórias: o agente que cumpre as obrigações de governança, transparência e segurança impostas pela lei tem, em princípio, sua responsabilidade excluída ou atenuada; o que as descumpre tem sua imputabilidade presumida.

O Código Civil e a Dualidade Culpa-Risco

O Código Civil (Lei nº 10.406/2002) mantém a dualidade entre responsabilidade subjetiva (fundada na culpa, art. 186) e objetiva (fundada no risco, art. 927, parágrafo único). No contexto da IA, a responsabilidade objetiva tende a ser o regime predominante para os fornecedores de sistemas de alto risco, enquanto a subjetiva pode ser aplicada a operadores e usuários que, por dolo ou culpa, contribuíram para a produção do dano além do risco inerente ao sistema.

Essa dualidade permite uma distribuição de responsabilidade que reflita tanto a dimensão estrutural do risco — imputada objetivamente ao fornecedor — quanto a dimensão comportamental — imputada subjetivamente a quem agiu com culpa. Parece-nos que essa combinação é a que melhor equilibra a proteção do lesado e a segurança jurídica dos agentes no contexto dos sistemas inteligentes.

Considerações Finais

As considerações críticas sobre as teorias da causalidade revelam que o ordenamento jurídico brasileiro dispõe de instrumentos normativos e teóricos suficientes para enfrentar os desafios da responsabilidade civil por IA — desde que articulados de forma coerente e sistemática. A transição do nexo causal para o nexo de imputação, que se examinará no próximo capítulo, é o passo seguinte indispensável para a construção de um regime de responsabilidade civil que seja, ao mesmo tempo, juridicamente rigoroso e tecnologicamente adequado.

TeoriasCausalidadeEquivalênciaCausalidade Adequada

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.