Em atividades guiadas ou executadas por sistemas de inteligência artificial, o nexo causal não se limita à relação humana tradicional, pois envolve processos de decisão potencialmente autônomos, muitas vezes opacos, cujo resultado pode escapar ao controle imediato dos desenvolvedores ou usuários. Esse cenário desafia a doutrina a compatibilizar as teorias clássicas de causalidade com a realidade de danos imprevisíveis ou dificilmente rastreáveis.
A Necessidade de Uma Abordagem Sistemática
Compreendidas as estruturas básicas das relações de responsabilidade civil, e dadas as inúmeras possibilidades e intervenções envolvendo tecnologias tão complexas e difundidas como as que carregam inteligência artificial, depreende-se a necessidade de abordar os cenários em que o dano decorre de uma multiplicidade de causas, sejam elas concomitantes ou sucessivas: trata-se do estudo das chamadas concausas. A compreensão detalhada dessas concausas se torna imprescindível para analisarmos os reflexos jurídicos da multiplicidade de agentes envolvidos em um dano — que o ordenamento brasileiro recebe, principalmente, através da responsabilidade solidária —, bem como as excludentes de responsabilidade.
Parece-nos que a relevância desse estudo se intensifica precisamente porque os sistemas de IA operam, via de regra, em ecossistemas compostos por múltiplos atores: desenvolvedores de modelos de base, integradores de soluções, fornecedores de dados, operadores de plataforma e, finalmente, os usuários. Cada um desses agentes interfere, em graus distintos, na cadeia causal que pode culminar em um evento danoso.
Conceito e Fundamento das Concausas
A análise das concausas — também denominadas causas concorrentes ou causalidade múltipla — abrange eventos preexistentes, concomitantes ou supervenientes, de natureza humana ou natural, que reforçam ou alteram a sequência causal sem necessariamente romper o vínculo com o dano. De início, cumpre reforçar que, tal como ocorre no direito penal, o concurso de agentes ou coparticipação também se manifesta no direito civil quando as condutas de duas ou mais pessoas concorrem para o evento danoso.
Pablo Stolze e Rodolfo Pamplona Filho apontam, de maneira geral, a concausa como o fator que se soma à conduta originária, reforçando o alcance do resultado lesivo. Já Caitlin Sampaio Mulholland a define como "uma condição que concorre para a produção do dano junto com a conduta inicialmente imputada, modificando o curso normal do processo causal iniciado". Nessa linha, cada conduta pode agir de forma coordenada ou não, havendo ou não intencionalidade. A questão central reside em saber se a concausa rompe ou não o nexo causal originário.
Verificou-se que a doutrina brasileira tem proposto diversas classificações e nomenclaturas dentro deste estudo da concausalidade. Fernando Noronha — cuja obra é central no desenvolvimento dessas teorias — as divide, inicialmente, em causalidade plural comum e causalidade plural concorrente. A causalidade plural comum consiste das situações em que duas ou mais pessoas participam do mesmo fato gerador de dano, como nos exemplos clássicos de brigas entre grupos, tumultos generalizados e rixas coletivas.
Perspectiva Normativa: LGPD, CDC e PL 2.338/2023
Do ponto de vista normativo, a multiplicidade de agentes em sistemas de IA encontra amparo em diversas camadas do ordenamento jurídico brasileiro. A Lei Geral de Proteção de Dados (Lei n.º 13.709/2018) estabelece, nos arts. 42 a 45, um regime de responsabilidade que alcança tanto o controlador quanto o operador de dados pessoais, admitindo responsabilização conjunta quando ambos contribuírem para o tratamento irregular que cause dano ao titular. O art. 42, §1º, da LGPD prevê expressamente que, se o operador realizar tratamento em descumprimento à legislação ou às instruções do controlador, responderá solidariamente pelos danos causados — o que configura, em essência, uma hipótese legal de concausalidade entre os dois agentes.
O Código de Defesa do Consumidor (Lei n.º 8.078/1990), por sua vez, consagra nos arts. 12 e 14 a responsabilidade objetiva e solidária de todos os integrantes da cadeia de fornecimento, impondo ao consumidor lesado apenas a demonstração do dano e do nexo de causalidade, dispensando a comprovação de culpa. Tal modelagem normativa é particularmente relevante para os sistemas de IA de uso consumerista, como plataformas de recomendação, assistentes virtuais e sistemas de análise de crédito.
O Projeto de Lei n.º 2.338/2023, em tramitação no Senado Federal, propõe regras específicas para a responsabilidade por danos causados por sistemas de IA de alto risco, adotando, em linhas gerais, uma presunção relativa de causalidade em favor da vítima e a possibilidade de responsabilização solidária entre o fornecedor do sistema de IA e o operador que o implementa. Essa tendência legislativa dialoga diretamente com o AI Act europeu (Regulamento (UE) 2024/1689), que classifica os sistemas de IA em categorias de risco e estabelece obrigações diferenciadas para fornecedores e operadores, inclusive no plano da responsabilidade por danos.
A Opacidade Algorítmica como Fator Complicador
Um dos maiores desafios práticos na análise das concausas em sistemas de IA reside na opacidade dos modelos utilizados. Os sistemas de aprendizado profundo (deep learning) e os grandes modelos de linguagem (large language models) operam, frequentemente, de modo que nem mesmo seus próprios desenvolvedores conseguem explicar com precisão por que uma determinada saída foi produzida — fenômeno conhecido como o problema da "caixa-preta" (black box). Essa opacidade dificulta a identificação da causa adequada do dano, pois o rastreamento causal pressupõe, em princípio, a possibilidade de verificar a sequência lógica de eventos que levou ao resultado.
Parece-nos que, diante dessa limitação técnica, o ordenamento jurídico deve adotar mecanismos de inversão do ônus probatório que reconheçam a assimetria informacional entre a vítima do dano e os agentes que detêm conhecimento sobre o funcionamento do sistema. Essa é exatamente a lógica subjacente à presunção de causalidade prevista no PL 2.338/2023 para sistemas de alto risco e ao princípio da precaução que permeia o AI Act europeu.
Conclusão Parcial
Conclui-se, portanto, que os conceitos fundamentais das concausas e da multiplicidade de agentes revelam-se instrumentos indispensáveis para a adequada compreensão da responsabilidade civil no contexto dos sistemas de inteligência artificial. A diversidade de classificações doutrinárias, ao ser confrontada com as normas vigentes — Código Civil, CDC, LGPD e o emergente marco regulatório da IA —, projeta-se como um campo fértil de disputas hermenêuticas, cujos desdobramentos práticos serão decisivos para a tutela efetiva das vítimas de danos algorítmicos. A análise aprofundada dessas categorias, a qual se empreenderá nos artigos subsequentes, é, portanto, condição necessária para uma compreensão sistemática e contemporânea do tema.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".