Voltar ao Blog
Nexo de CausalidadeCapítulo 2

As Teorias da Causalidade: Tendências Regulatórias

Tendências regulatórias sobre nexo causal e inteligência artificial: causalidade alternativa, PL 2338/23, AI Act e responsabilidade coletiva em sistemas distribuídos.

Alessandro Lavorante 6 de janeiro de 2025 5 min de leitura

Introdução

O avanço dos sistemas de inteligência artificial tem imposto ao direito da responsabilidade civil o enfrentamento de questões que as teorias clássicas do nexo causal não foram originalmente concebidas para solucionar. Entre essas questões, destaca-se a da causalidade alternativa — instituto que, embora frequentemente tratado no âmbito das concausas, merece abordagem autônoma em razão de suas peculiaridades e de sua crescente relevância nas discussões regulatórias contemporâneas. Parece-nos essencial examinar esse instituto à luz das tendências regulatórias que emergem tanto no Brasil quanto no espaço jurídico europeu.

A Teoria da Causalidade Alternativa

A teoria da causalidade alternativa fundamenta-se na presunção de que, quando um dano pode ser atribuído a condutas de diferentes sujeitos, mas não se logra identificar qual foi o agente causal específico, cada conduta é considerada como havendo contribuído para o resultado danoso. Como bem explica Otávio Luiz Rodrigues Jr., essa abordagem difere tanto da inversão do ônus da prova quanto da presunção de nexo causal, bem como da ideia de condenação com base em estatísticas genéricas, não se confundindo tampouco com a causalidade probabilística.

Em linhas gerais, a causalidade alternativa tem como fundamento os princípios de solidariedade aplicáveis a casos de incerteza sobre o nexo causal, gerando maior objetividade na análise das responsabilidades. No direito brasileiro, verifica-se aplicação análoga ao regime dos objetos arremessados de edifício sem identificação do apartamento de origem, hipótese em que se responsabilizam coletivamente todos os ocupantes, solução que visa proteger o lesado. O STJ já se utilizou desse raciocínio em hipóteses como quedas de objetos de varandas (REsp 64.682/RJ) e morte de torcedor causada por grupos rivais após jogo de futebol (REsp 26.975/RS).

A Causalidade Alternativa e os Sistemas de IA Distribuída

No contexto dos ambientes virtuais que operam com IA distribuída, em que erros de programação e a falta de transparência algorítmica inviabilizam a prova de um único responsável, a responsabilidade coletiva fundamentada na causalidade alternativa revela-se especialmente adequada. A dificuldade prática de isolar o agente causador do dano em ecossistemas tecnológicos complexos não pode resultar na ausência de responsabilização, sob pena de se criar um incentivo perverso à opacidade.

Para ilustrar esse ponto, considere-se o seguinte cenário: três centros de pesquisa em IA desenvolvem, cada um, um módulo de anonimização de dados para uso em um pipeline de big data analytics. O Centro "A" utiliza differential privacy — técnica que acrescenta ruído estatístico aos dados de modo que não se possa identificar se um indivíduo específico participou do conjunto; o Centro "B" emprega criptografia homomórfica, que permite realizar operações sobre dados criptografados sem descriptografá-los; o Centro "C" recorre a federated learning, forma de treinamento em que os participantes processam localmente seus dados e enviam apenas atualizações de parâmetros ao servidor central, sem compartilhar a base original.

Todos os módulos são integrados simultaneamente no sistema de análise, mas nenhum responsável testa adequadamente as interações entre eles. Ocorre, então, um vazamento grave de dados pessoais. As investigações não conseguem determinar qual dos três módulos causou a falha principal, pois todos poderiam, em tese, ter originado a brecha. Pela ótica da causalidade alternativa, presumir-se-ia a responsabilidade de cada centro diante da incerteza sobre quem efetivamente deu causa ao dano.

O Tratamento Regulatório: LGPD, PL 2338/23 e AI Act

A LGPD (Lei nº 13.709/2018) já oferece instrumentos relevantes para esse tipo de situação. O art. 42 estabelece que o controlador ou operador que causar dano em decorrência do exercício de atividade de tratamento de dados pessoais é obrigado a repará-lo, admitindo-se a responsabilidade solidária quando houver mais de um controlador ou operador envolvido na cadeia de tratamento (art. 42, § 1º). Essa regra, aplicada ao cenário descrito, permitiria responsabilizar solidariamente os três centros de pesquisa, independentemente da identificação precisa do módulo causador da falha.

O PL 2338/23, em seu art. 28, avança nessa direção ao prever expressamente a responsabilidade solidária entre agentes de IA. A proposta reconhece que, nos ecossistemas tecnológicos distribuídos, a exigência de prova individual da causalidade inviabilizaria a reparação dos lesados, sendo necessário adotar mecanismos de imputação que reflitam a realidade colaborativa do desenvolvimento de sistemas inteligentes.

No âmbito europeu, o AI Act (Regulamento UE 2024/1689) impõe obrigações de rastreabilidade e documentação técnica precisamente para viabilizar a identificação post hoc da responsabilidade em cadeias de desenvolvimento complexas. O considerando 79 do Regulamento reconhece que a opacidade dos sistemas de IA é um obstáculo à responsabilização e que os requisitos de transparência e registro de logs têm, entre suas finalidades, a de facilitar a prova do nexo causal em disputas judiciais.

O Debate Doutrinário: Limites da Causalidade Alternativa

A causalidade alternativa não está imune a críticas. O principal desafio que enfrenta é o de definir quem efetivamente causou o evento quando cada fator, por si só, teria potência para produzi-lo integralmente. Nesses casos, a presunção de responsabilidade coletiva pode resultar na imputação de deveres de indenizar a agentes que não contribuíram para o dano — solução que, embora protetiva ao lesado, pode gerar externalidades negativas ao desestimular o investimento em inovação.

A doutrina aponta, como possível equacionamento, a adoção do direito de regresso entre os corresponsáveis solidários, proporcional ao grau de contribuição de cada um para a criação do risco que se materializou no dano. Essa solução, já contemplada no art. 28 do PL 2338/23, preserva a proteção do lesado sem impor a todos os agentes um ônus econômico idêntico, independentemente de sua responsabilidade efetiva.

Considerações Finais

As tendências regulatórias nacionais e internacionais convergem, portanto, no reconhecimento de que a causalidade alternativa — com os ajustes necessários ao contexto tecnológico — constitui instrumento adequado para a responsabilização em ecossistemas de IA distribuída. O diálogo entre essa teoria e os marcos normativos emergentes — LGPD, PL 2338/23 e AI Act — aponta para um modelo de responsabilidade que equilibra a proteção do lesado, a segurança jurídica dos agentes e os incentivos à inovação responsável. Parece-nos que esse equilíbrio, ainda que difícil de atingir na prática, é o horizonte normativo que o ordenamento jurídico brasileiro deve perseguir.

TeoriasCausalidadeEquivalênciaCausalidade Adequada

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.