A análise dos fundamentos jurídicos das concausas passa, necessariamente, pelo exame de situações em que múltiplos módulos de inteligência artificial operam em conjunto, cada um expondo parcelas distintas de dados dos usuários. Quando essas exposições parciais se combinam, o dano resultante supera em muito a soma das partes — o que levanta questões fundamentais sobre a responsabilidade de cada agente e sobre os critérios de imputação causal aplicáveis.
A Teoria da Causalidade Adequada como Fundamento
Sérgio Cavalieri Filho aprofunda a análise das concausas a partir dos pilares da teoria da causalidade adequada, segundo a qual se deve selecionar, entre as condições antecedentes, aquelas que, segundo a experiência comum, são capazes de produzir o resultado em seu curso normal. Essa teoria afasta a regressão ao infinito própria da conditio sine qua non ao exigir que a causa seja, não apenas uma condição necessária, mas uma condição adequada — ou seja, uma condição que, pela regularidade dos acontecimentos, seria apta a produzir o tipo de resultado verificado.
Parece-nos que a teoria da causalidade adequada revela-se especialmente útil no contexto dos sistemas de IA porque permite ao intérprete distinguir entre as falhas algorítmicas que se inserem no espectro previsível de riscos de determinado sistema — e, portanto, constituem causas adequadas dos danos eventualmente gerados — e aquelas que resultam de eventos absolutamente extraordinários ou de manipulações imprevisíveis por parte de terceiros.
Concausas Preexistentes: Fundamentos e Aplicações
As concausas preexistentes são aquelas que já existiam antes da conduta do agente e que, ao se combinarem com essa conduta, influenciam a extensão ou a natureza do dano. Segundo a teoria da causalidade adequada, as concausas preexistentes, em regra, não rompem o nexo causal quando já existiam antes da conduta do agente. Exemplos clássicos incluem predisposições de saúde da vítima — como hemofilia ou diabetes —, que apenas agravam o resultado sem eximir o responsável.
Adaptando essa categoria ao universo digital, parece-nos ilustrativo o caso de uma plataforma de ensino online que já apresentava sérias vulnerabilidades no banco de dados (concausa preexistente). Posteriormente, uma empresa de IA implanta um módulo de recomendação — baseado em redes neurais — que, por falha de configuração, expõe ainda mais os dados dos estudantes. A brecha de segurança não é rompida pela implantação do módulo de IA; ao contrário, as vulnerabilidades preexistentes e a falha de configuração do novo módulo se somam para potencializar o vazamento. O problema de segurança anterior (concausa preexistente) não afasta a responsabilidade do agente que adicionou o módulo defeituoso; ambos se somam para ocasionar o dano.
Do ponto de vista normativo, a LGPD (Lei n.º 13.709/2018) exige, no art. 46, que os agentes de tratamento adotem medidas de segurança técnicas e administrativas aptas a proteger os dados pessoais. O descumprimento dessa obrigação pela plataforma de ensino — que mantinha vulnerabilidades conhecidas sem corrigi-las — configura, em si, uma ilicitude que contribui para a cadeia causal do dano. Mesmo que a empresa de IA tenha agravado a situação com o módulo mal configurado, a plataforma não pode alegar a concausa preexistente como excludente de sua própria responsabilidade.
Concausas Supervenientes e Concomitantes
As concausas supervenientes ou concomitantes, surgidas após o desencadeamento do nexo causal, também não afastam a responsabilidade se apenas reforçam o dano; mas podem romper o nexo se se tornam causa direta e exclusiva de um novo resultado. Para que haja o rompimento do nexo, a causa superveniente deve constituir nova sequência causal completamente independente, assumindo o papel de causa direta e imediata do dano subsequente.
Verificou-se que o clássico exemplo de um sujeito alvejado por um disparo que, embora o ferimento fosse fatal, morre antes em razão de um terremoto absolutamente imprevisível e independente, ilustra o rompimento do nexo causal pela causa superveniente completamente independente. A conexão causal com o disparo se romperia porque o terremoto constitui uma nova sequência causal, absolutamente alheia à conduta do agente.
No contexto de sistemas de IA, parece-nos relevante o exemplo de uma empresa de logística que utiliza um sistema de roteirização por IA que envia um caminhão por uma rota inadequada. Esse erro já encaminhava a empresa para um possível atraso na entrega (primeiro dano). Porém, no trajeto, ocorre um colapso repentino de uma ponte — evento externo, completamente imprevisível e sem relação com o sistema de IA. O caminhão cai no rio e perde toda a carga. Nesse caso, o colapso da ponte é uma causa superveniente completamente independente, rompendo o nexo com o erro de roteirização do sistema de IA.
O Papel do Código Civil, do CDC e da LGPD
O art. 403 do Código Civil, ao estabelecer que as perdas e danos só incluem os prejuízos efetivos e os lucros cessantes "por efeito dela direto e imediato", consagra implicitamente a teoria do dano direto e imediato como limitador da extensão do nexo causal. Essa disposição, interpretada em conjunto com a teoria da causalidade adequada, confere ao julgador um critério duplo para delimitar a imputação: a adequação da causa (relação de probabilidade entre a conduta e o tipo de dano) e a diretividade do resultado (ausência de causas supervenientes independentes que rompam o nexo).
O CDC, nos arts. 12 e 14, afasta a necessidade de prova da culpa, mas não dispensa a demonstração do nexo causal entre o defeito do produto ou serviço e o dano verificado. Parece-nos que essa exigência, embora mitigada pela inversão do ônus probatório prevista no art. 6º, VIII, do CDC, permanece como filtro necessário para evitar a imputação de responsabilidade por danos que não guardem relação de causalidade com o defeito do sistema de IA.
O PL 2.338/2023 avança ao propor, para sistemas de IA de alto risco, a presunção relativa de nexo causal em favor da vítima que demonstre a ocorrência do dano e a operação do sistema no contexto em que o dano se verificou. Essa presunção é relativa — admite prova em contrário — e tem o mérito de redistribuir o ônus probatório de modo mais equitativo, reconhecendo que a vítima raramente possui acesso à documentação técnica necessária para demonstrar a cadeia causal com precisão.
A Causalidade Adequada no AI Act Europeu
O AI Act (Regulamento (UE) 2024/1689) não adota, explicitamente, a teoria da causalidade adequada como fundamento da responsabilidade civil por danos de IA. No entanto, ao impor obrigações de rastreabilidade, documentação e transparência aos sistemas de alto risco, o regulamento europeu cria as condições para que a análise de causalidade adequada seja realizada com maior precisão. A obrigação de manter registros de eventos (logging) automáticos, por exemplo, permite ao intérprete verificar, a posteriori, se o sistema operava dentro dos parâmetros de seu design original ou se havia sido modificado de modo que tornasse previsível o tipo de dano verificado.
Conclusão Parcial
Os fundamentos jurídicos das concausas — especialmente as modalidades preexistente, superveniente e concomitante — revelam um arcabouço teórico suficientemente robusto para lidar com os desafios dos sistemas de inteligência artificial. A combinação da teoria da causalidade adequada com as presunções normativas da LGPD, do CDC e do PL 2.338/2023 oferece instrumentos concretos para a proteção das vítimas de danos algorítmicos, desde que interpretados de forma sistemática e contextualizada à realidade técnica dos sistemas de IA contemporâneos.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".