Voltar ao Blog
Nexo de CausalidadeCapítulo 2

As Teorias da Causalidade: Análise Aprofundada

Análise aprofundada das teorias da causalidade na responsabilidade civil: equivalência das condições, causalidade adequada e suas limitações diante dos sistemas de inteligência artificial.

Alessandro Lavorante 6 de dezembro de 2024 8 min de leitura

2.3.3. As Teorias da Causalidade: Análise Aprofundada

A teoria da equivalência das condições — também denominada teoria da conditio sine qua non — constitui ponto de partida incontornável para qualquer análise aprofundada das teorias da causalidade no direito da responsabilidade civil. Formulada originalmente no campo do direito penal pelos autores alemães von Buri e Stuart Mill no século XIX, a teoria foi incorporada ao debate civilístico e permanece presente como categoria de referência, ainda que progressivamente temperada por teorias de maior rigor seletivo.

Otávio Luiz Rodrigues Jr. explica que a teoria da equivalência das condições foi amplamente criticada pela dificuldade de se fixar limites jurídicos à atribuição de responsabilidade quando se identificam múltiplas causas para um mesmo dano, especialmente em razão de seu caráter cientificista-naturalista, que tende a desconsiderar excludentes normativas de responsabilidade. Sob esse prisma, Gisela Sampaio da Cruz fala em "excessivo apego à causalidade natural", destacando que, sem os limites impostos pelos sistemas jurídicos, surgiriam conclusões contraproducentes.

A Crítica de Tepedino e o Art. 188 do Código Civil

Segundo Gustavo Tepedino, a crítica ressoa com especial intensidade no direito brasileiro, a exemplo das hipóteses contidas no art. 188 do Código Civil — em que a conduta, embora cause o resultado, é juridicamente justificável e não deve atrair responsabilidade civil. As hipóteses de legítima defesa, exercício regular de direito e estado de necessidade iminente demonstram que o ordenamento reconhece situações em que a eficácia causal de uma conduta não é suficiente, por si só, para fundar o dever de indenizar.

Parece-nos que essa limitação normativa é de especial relevância para a análise dos danos causados por sistemas de inteligência artificial. A teoria da equivalência das condições, aplicada sem temperamentos, conduziria a resultados absurdos: o desenvolvedor de um sistema de IA que, em seu funcionamento regular e lícito, contribuiu com alguma condição para a cadeia causal que culminou no dano seria responsabilizado, ainda que sua conduta fosse técnica e juridicamente irrepreensível. A necessidade de estabelecer limites normativos à causalidade natural é, portanto, pressuposto da viabilidade do desenvolvimento tecnológico responsável.

A Teoria da Causalidade Adequada

Diante das insuficiências da teoria da equivalência das condições, a doutrina civilística brasileira majoritária adotou a teoria da causalidade adequada como critério preferencial para a identificação do nexo causal. Segundo essa teoria, não basta que uma conduta seja condição sine qua non do dano: é necessário que ela seja, segundo o curso normal e ordinário das coisas, apta a produzir aquele tipo de resultado. O juízo de adequação é feito em abstrato, com base no que seria razoavelmente previsível para um observador objetivo colocado na posição do agente no momento da conduta.

Verificou-se que a teoria da causalidade adequada oferece instrumental mais refinado para a solução dos casos envolvendo sistemas de IA. A conduta do desenvolvedor que projeta um sistema de diagnóstico médico com falhas nos dados de treinamento é causalmente adequada para produzir diagnósticos equivocados: trata-se de resultado que, segundo o curso normal das coisas, decorre daquela espécie de falha. Já a conduta do desenvolvedor que cumpre integralmente os padrões de diligência exigidos pelo estado da técnica não é causalmente adequada para produzir o dano decorrente de comportamento imprevisível emergente do autoaprendizado do sistema.

Aplicação Prática: O Algoritmo e o Dano ao Paciente

Considere-se, por exemplo, um algoritmo que, por erro na curadoria dos dados de treinamento, não detecta uma doença grave, resultando no agravamento da condição do paciente. Se a correção dos dados de treinamento teria, com probabilidade próxima à certeza, evitado o desfecho, essa omissão configuraria causa adequada do dano, ainda que o profissional que projetou o software não tenha agido com intenção ou culpa direta, caso se constate que adotou todas as práticas recomendadas. Nesse caso, a verificação das excludentes normativas aplicáveis — e não apenas a ausência de culpa — será determinante para a definição do dever de indenizar.

Em outro caso, se a omissão de determinados procedimentos de teste no sistema de IA de análise de riscos de uma indústria vier a causar um acidente, é possível que tal falha seja considerada causa adequada do sinistro. Mesmo assim, a responsabilidade de cada agente envolvido somente poderá ser estabelecida após a verificação das excludentes normativas aplicáveis, lembrando sempre que a causalidade naturalística é pressuposto necessário, mas não suficiente, para a imputação do dever de indenizar.

O Problema da Causalidade em Veículos Autônomos

Um dos cenários mais ilustrativos para a análise das teorias da causalidade no contexto da IA é o do veículo autônomo envolvido em colisão com pedestre. Nessa situação, podem existir diversas condições que culminaram no resultado danoso: o algoritmo de visão computacional, a calibração dos sensores, a configuração incorreta feita pelo operador, entre outras. Segundo a teoria da equivalência das condições, cada uma dessas variáveis que contribuiu efetivamente para o atropelamento seria considerada causa, pois, sem qualquer uma delas, o desfecho poderia ter sido diferente.

Parece-nos que a aplicação irrestrita da teoria da equivalência nesse cenário conduziria à responsabilização em cascata de todos os agentes envolvidos na cadeia produtiva do veículo, independentemente de sua participação efetiva na causa do dano. A teoria da causalidade adequada, ao exigir que cada conduta seja objetivamente apta a produzir aquele tipo de resultado, permite uma seleção mais precisa dos responsáveis, compatível com o critério de proporcionalidade que deve nortear a atribuição do dever de indenizar.

Entretanto, o simples fato de uma empresa desenvolver o software de IA não implica, automaticamente, culpa. À luz do entendimento de von Buri, é necessário distinguir a causa do dano da eventual negligência ou imprudência. O desenvolvedor que adotou todas as práticas recomendadas pelo estado da técnica — incluindo os protocolos de segurança exigidos pelo AI Act europeu e pelo PL 2.338/2023 — pode demonstrar que sua conduta não era causalmente adequada para produzir o resultado danoso, afastando o nexo causal pela via da excludente do fato de terceiro ou do caso fortuito externo.

A Teoria do Dano Direto e Imediato

Além da teoria da causalidade adequada, a doutrina e a jurisprudência brasileiras fazem referência à teoria do dano direto e imediato — também denominada teoria da interrupção do nexo causal — que opera como critério complementar na identificação do nexo causal. Segundo essa teoria, adotada em certas hipóteses pelo Código Civil (art. 403), somente são indenizáveis os danos que sejam consequência direta e imediata da conduta do agente.

Verificou-se que a teoria do dano direto e imediato apresenta limitações próprias quando aplicada aos sistemas de IA: a opacidade dos processos algorítmicos frequentemente impede a identificação precisa da relação de imediatividade entre a conduta do desenvolvedor e o dano sofrido pela vítima. Nesses casos, a combinação das teorias da causalidade adequada e do dano direto e imediato, modulada pelas presunções de causalidade previstas na proposta europeia de diretiva de responsabilidade civil em IA, parece constituir o instrumental mais adequado para a solução dos litígios.

A LGPD e o Nexo Causal nas Decisões Automatizadas

A Lei Geral de Proteção de Dados (Lei n.º 13.709/2018) introduz dimensão adicional na discussão sobre as teorias da causalidade ao disciplinar, em seu art. 20, o direito do titular de dados de solicitar revisão de decisões tomadas com base em tratamento automatizado. O descumprimento desse dever de revisão pelo controlador pode configurar elemento de imputação que, combinado com as teorias da causalidade, fundamenta a responsabilidade civil pelos danos decorrentes de decisões automatizadas equivocadas.

Parece-nos que a violação do dever de revisão humana previsto no art. 20 da LGPD é causalmente adequada para produzir danos ao titular dos dados, na medida em que a intervenção humana no processo decisório é precisamente o mecanismo que permite a identificação e correção de erros algorítmicos. O controlador que suprime esse mecanismo assume o risco de que decisões equivocadas do sistema produzam danos não passíveis de correção preventiva.

Síntese

Em síntese, verificou-se que a análise aprofundada das teorias da causalidade na responsabilidade civil revela a insuficiência da teoria da equivalência das condições como critério exclusivo de imputação, especialmente no contexto dos sistemas de inteligência artificial. A teoria da causalidade adequada, temperada pela teoria do dano direto e imediato e pelas excludentes normativas do ordenamento, oferece o instrumental mais adequado para a equânime distribuição dos ônus reparatórios. O diálogo entre o Código Civil, a LGPD, o PL 2.338/2023 e as referências do direito regulatório europeu é, nesse campo, indispensável para a construção de respostas jurídicas consistentes diante dos desafios impostos pela inteligência artificial.


Referências

  • RODRIGUES JR., Otávio Luiz. Responsabilidade Civil, Antijuridicidade e Imputação. São Paulo: Atlas, 2016.
  • REINIG, Guilherme Henrique Lima. A teoria do nexo de causalidade. São Paulo, 2013.
  • CRUZ, Gisela Sampaio da. O Problema do Nexo Causal na Responsabilidade Civil. Rio de Janeiro: Renovar, 2005.
  • TEPEDINO, Gustavo. Temas de Direito Civil. Rio de Janeiro: Renovar, 2011.
  • FARIAS, Cristiano Chaves de; BRAGA NETTO, Felipe Peixoto; ROSENVALD, Nelson. Novo Tratado de Responsabilidade Civil. 3. ed. São Paulo: Saraivajur, 2019.
  • GONÇALVES, Carlos Roberto. Responsabilidade Civil. 23. ed. São Paulo: Saraivajur, 2024.
  • BRASIL. Código Civil (Lei n.º 10.406/2002). Arts. 188 e 403.
  • BRASIL. Lei Geral de Proteção de Dados (Lei n.º 13.709/2018). Art. 20.
  • BRASIL. Projeto de Lei n.º 2.338/2023. Arts. 27 e 28.
  • UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 — AI Act. Arts. 9.º e 13.º.
  • UNIÃO EUROPEIA. Proposta de Diretiva sobre Responsabilidade Civil da IA. COM/2022/496.
TeoriasCausalidadeEquivalênciaCausalidade Adequada

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.