Voltar ao Blog
Nexo de CausalidadeCapítulo 2

As Concausas e a Multiplicidade de Agentes: Considerações Críticas

Considerações críticas sobre concausas supervenientes, rompimento do nexo causal em sistemas de IA, causa virtual e os limites da responsabilidade algorítmica no direito brasileiro.

Alessandro Lavorante 24 de outubro de 2024 7 min de leitura

O exame crítico das concausas revela tensões doutrinárias que adquirem relevância prática especialmente elevada quando aplicadas ao universo dos sistemas de inteligência artificial. A distinção entre concausas que reforçam o nexo e aquelas que o rompem, embora estabelecida com relativa clareza na teoria clássica, apresenta considerável grau de incerteza quando os fatos subjacentes envolvem comportamentos algorítmicos imprevisíveis, eventos ambientais extraordinários ou a interferência indevida de terceiros sobre sistemas automatizados.

O Rompimento do Nexo Causal por Causa Superveniente Independente

A doutrina de Sérgio Cavalieri Filho estabelece que a causa superveniente completamente independente rompe o nexo causal quando constitui nova sequência causal absolutamente alheia à conduta originária, tornando-se a causa direta e exclusiva do novo resultado. A pedra de toque dessa análise reside na independência absoluta da causa superveniente: ela não deve ser uma consequência previsível da conduta originária, nem um fator que o agente tivesse o dever de antecipar ou prevenir.

Parece-nos que, aplicado ao contexto de sistemas de IA, esse critério conduz a conclusões que merecem exame cuidadoso. Uma falha de infraestrutura causada por fenômeno climático extremo pode, em tese, romper o nexo causal entre uma falha de roteirização algorítmica e a perda de cargas transportadas. No entanto, se a própria inadequação do planejamento de rotas tornava o caminhão vulnerável a esse tipo de evento — por exemplo, ao encaminhá-lo por regiões de risco em período de chuvas intensas —, a causa superveniente deixa de ser completamente independente e passa a constituir, ao menos parcialmente, consequência previsível da conduta originária do sistema de IA.

Verificou-se, assim, que a previsibilidade do evento superveniente — critério central na teoria da causalidade adequada — funciona como fator determinante para decidir se há ou não rompimento do nexo. Nesse ponto, a opacidade dos modelos de IA representa um desafio específico: se o próprio desenvolvedor não consegue explicar por que o sistema tomou determinada decisão de roteamento, como se pode avaliar objetivamente se o evento superveniente era ou não previsível a partir do estado do sistema?

Considerações Críticas sobre a Causa Virtual

A doutrina de Bruno Miragem trabalha com a noção de "causa virtual" — também denominada causalidade hipotética —, que consiste em condições que potencialmente gerariam dano, mas que não culminam no resultado porque uma causa real se interpõe. A causa virtual não interrompe o nexo causal estabelecido entre a causa real e o resultado; ela permanece no campo da potencialidade, sem gerar consequências jurídicas autônomas.

Parece-nos que esse conceito tem aplicação prática relevante no contexto de sistemas de IA com defeitos latentes. Considere-se uma startup que desenvolve um robô de limpeza autônomo com inteligência artificial que, devido a um bug, poderia causar curtos-circuitos perigosos (causa virtual). Antes de o defeito se manifestar espontaneamente, um funcionário, ao manusear incorretamente o robô, liga-o perto de uma fiação exposta e provoca de fato um princípio de incêndio (causa real). Nesse cenário, a causa virtual — o defeito que poderia levar a problemas elétricos — não chega a se concretizar sozinha. O incêndio é causado diretamente pelo descuido do funcionário.

A questão crítica, entretanto, reside em saber se o defeito latente do robô — a causa virtual — pode ser inteiramente desconsiderado na análise da responsabilidade. Parece-nos que não: embora não seja a causa direta do dano ocorrido, o defeito latente configura, em si mesmo, uma violação do dever de segurança do produto, que poderia fundamentar responsabilidade preventiva ou a aplicação do art. 12 do CDC, que não exige a concretização do dano para reconhecer o defeito do produto.

Fragmentação da Cadeia de Valor e Anonimato dos Agentes

Nos cenários de desenvolvimento e operação de sistemas de inteligência artificial, a presença de múltiplos agentes e fases de produção gera fragmentação na cadeia de valor e, por consequência, dificulta a identificação dos responsáveis em eventuais ocorrências danosas. Alguns atores podem, progressivamente, adquirir caráter de anonimato — especialmente nos modelos de IA desenvolvidos por comunidades de código aberto ou por meio de contratos de fornecimento de componentes em cadeia —, agravando a dificuldade de responsabilização.

Verificou-se que elevados custos processuais e disputas jurisdicionais surgem como obstáculos adicionais para a vítima. A assimetria informacional é, talvez, o problema mais grave: enquanto os desenvolvedores e operadores de sistemas de IA detêm acesso privilegiado aos dados de treinamento, à arquitetura do modelo e aos registros de funcionamento, a vítima dispõe apenas do resultado — o dano sofrido — sem acesso às informações que permitiriam rastrear sua origem.

Parece-nos que a resposta normativa mais eficaz a esse problema seria a adoção de obrigações legais de conservação de registros técnicos (audit logs) e de documentação de conformidade, de modo que, em caso de dano, esses registros pudessem ser requisitados judicialmente para a reconstrução da cadeia causal. Essa é a lógica do art. 13 do AI Act europeu, que impõe ao fornecedor o dever de manter registros automáticos durante todo o ciclo de vida do sistema de alto risco.

A Concausalidade na Jurisprudência Brasileira

A aplicação prática da concausalidade na jurisprudência revela-se na adoção de percentuais de culpa entre as partes envolvidas, de modo a atribuir a cada qual a fração correspondente no dever de indenizar. Flávio Tartuce faz referência a acórdãos dos Tribunais de Justiça do Rio Grande do Sul e de Minas Gerais em que se discute a repartição de culpas em diferentes proporções, sem se afastar o reconhecimento de todos como corresponsáveis, por força da solidariedade passiva.

Crítica que nos parece procedente é a de que a adoção de percentuais de culpa, embora intuitivamente equitativa, pode gerar distorções quando aplicada a sistemas de IA, pois a aferição da "culpa" de um algoritmo não se presta facilmente à lógica da negligência ou imprudência que orienta a culpa civil clássica. A falha algorítmica é, na maioria das vezes, uma falha de design, de dados de treinamento ou de integração de componentes — categorias que se aproximam mais da responsabilidade objetiva por defeito do produto do que da responsabilidade subjetiva por conduta culposa.

O PL 2.338/2023 e o AI Act como Respostas Sistêmicas

O PL 2.338/2023 representa, nesse contexto, um avanço significativo ao reconhecer que os sistemas de IA de alto risco impõem um regime de responsabilidade objetiva que não depende da demonstração de culpa de qualquer agente específico. A presunção relativa de nexo causal em favor da vítima — combinada com a inversão do ônus probatório quanto às excludentes de responsabilidade — constitui resposta sistemicamente adequada ao problema da fragmentação da cadeia causal nos sistemas algorítmicos.

O AI Act europeu, por sua vez, oferece um modelo regulatório complementar: ao impor obrigações de conformidade técnica aos sistemas de alto risco, cria condições para que a apuração do nexo causal seja realizada com base em evidências documentais concretas, reduzindo a dependência de presunções normativas e fortalecendo a segurança jurídica do processo de responsabilização.

Conclusão Parcial

As considerações críticas sobre as concausas revelam que a teoria jurídica clássica, embora ofereça um arcabouço conceitual valioso, necessita de ajustes hermenêuticos e normativos para lidar adequadamente com os danos produzidos por sistemas de inteligência artificial. A superação do problema do anonimato dos agentes e da opacidade algorítmica exige não apenas a adaptação das categorias doutrinárias, mas também a criação de obrigações regulatórias concretas que facilitem a reconstrução da cadeia causal em favor das vítimas.

ConcausasAgentesCausalidade Múltipla

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.