Introdução
A dimensão prática das teorias da causalidade no contexto da inteligência artificial manifesta-se com especial intensidade quando se trata de demonstrar, em juízo, o vínculo entre o funcionamento de um sistema algorítmico e o dano sofrido pelo usuário. A opacidade dos modelos de aprendizado de máquina e a multiplicidade de variáveis que influenciam seus resultados tornam essa demonstração um desafio probatório de primeira ordem. Para enfrentá-lo, a doutrina tem desenvolvido dois instrumentos de particular relevância: a teoria do nexo causal probabilístico e a teoria da presunção de causalidade. Parece-nos necessário examinar suas bases teóricas e suas aplicações práticas em cenários envolvendo sistemas de inteligência artificial.
O Nexo Causal Probabilístico: Bases e Controvérsias
A teoria do nexo causal probabilístico sustenta que a demonstração estatisticamente significativa de que determinada conduta ou sistema contribuiu para a produção do dano é suficiente para fundar a responsabilidade, mesmo na ausência de prova absoluta do elo causal individual. Essa abordagem parte da constatação de que, em certos contextos tecnológicos, a exigência de prova causal plena é epistemologicamente impossível — o que não pode resultar na impunidade do agente causador do dano.
A teoria, contudo, não está imune a críticas. Parte da doutrina aponta objeções ao uso da expressão "nexo causal probabilístico" no direito civil, definindo-a como uma contradição em termos e uma importação indevida de conceitos matemáticos que pode gerar confusões, sobretudo quando empregada como argumento de autoridade em decisões judiciais. O ponto central da crítica é que a probabilidade estatística, por si só, não é equivalente à causalidade jurídica: a correlação não implica causalidade, e a condenação fundada exclusivamente em dados estatísticos pode resultar em responsabilização de quem não contribuiu para o dano específico.
Aplicação Prática: O Caso da Fintech
Para ilustrar a aplicação prática da teoria do nexo causal probabilístico, tome-se o seguinte cenário adaptado: uma fintech adota um sistema de IA para gerir portfólios de investimento em tempo real, utilizando técnicas avançadas de aprendizado por reforço para decidir compras e vendas de ativos. O algoritmo é treinado com dados históricos de mercado e recebe atualizações constantes sobre cotações, volatilidade e notícias econômicas.
Certo dia, ocorre uma abrupta desvalorização do mercado e diversos clientes sofrem perdas substanciais. Não há prova cabal de que a IA seja a única causa do prejuízo — afinal, variáveis macroeconômicas e comportamentais também influenciam o resultado. Porém, uma análise estatística dos registros de negociação indica que, em momentos de alta instabilidade, o modelo tendia a intensificar posições de risco, agravando a exposição dos investidores a derivativos voláteis.
A teoria do nexo causal probabilístico sustenta que a constatação dessa inclinação estatisticamente significativa do sistema de IA já seria suficiente para estabelecer a responsabilidade da fintech. Não se exige prova absoluta de que cada perda individual tenha sido provocada única e exclusivamente pelas recomendações do algoritmo; basta a probabilidade fundada de que o sistema contribuiu de forma relevante para o dano. Esse raciocínio encontra eco no CDC (art. 6º, VIII), que autoriza a inversão do ônus da prova em favor do consumidor quando for verossímil a sua alegação, e no PL 2338/23, que prevê a facilitação probatória para vítimas de sistemas de IA de alto risco.
A Presunção de Causalidade: Distinção e Complementaridade
A teoria da presunção de causalidade, amplamente desenvolvida por Caitlin Sampaio Mulholland, opera de modo distinto. Não se trata de uma inversão do ônus da prova, mas de uma "prova indireta": estudos científicos e dados estatísticos — produzidos por universidades, agências de pesquisa ou peritos judiciais — são utilizados como indícios para sustentar a presunção do nexo causal. O juiz, valendo-se de raciocínio lógico-dedutivo, admite o vínculo entre a conduta e o resultado lesivo a partir de circunstâncias objetivas presentes no caso.
A distinção em relação ao nexo causal probabilístico é sutil, porém relevante: enquanto este se ancora primariamente em probabilidades estatísticas quantitativas, a presunção de causalidade não se limita a elas, podendo fundar-se em qualquer espécie de indício sólido que permita inferir logicamente o nexo causal.
Aplicação Prática: O Algoritmo Enviesado
Considere-se a situação em que uma empresa utiliza um sistema de IA para identificar colaboradores de "baixo desempenho" e proceder a demissões. Posteriormente, verifica-se que o modelo algorítmico estava enviesado, classificando equivocadamente certos funcionários como ineficientes — gerando perda de renda, estresse psicológico e dificuldade de recolocação profissional.
A presunção de causalidade se aplicaria se estudos técnicos apontassem a falha sistemática do software — por exemplo, relatórios estatísticos demonstrando que o modelo penalizava padrões associados a grupos minoritários ou a variáveis irrelevantes para o desempenho. Nessa situação, o juiz não inverte o ônus da prova, mas, apoiado nesses dados concretos, presume que a adoção do sistema de IA influenciou diretamente as dispensas injustificadas.
Esse cenário envolve, ainda, a aplicação do art. 20 da LGPD, que garante ao titular de dados o direito de solicitar revisão de decisões automatizadas que o afetem significativamente, bem como o direito à explicação sobre os critérios utilizados. A violação desse direito reforça, no plano jurídico, a presunção de que o sistema funcionou de forma inadequada.
A Articulação com o PL 2338/23 e o AI Act
O PL 2338/23 dialoga diretamente com essas teorias ao prever, em seu art. 22, que os agentes de IA devem manter registros técnicos suficientes para permitir a verificação post hoc do funcionamento do sistema. A ausência desses registros constitui, por si só, indício de negligência que pode fundar a presunção de causalidade. O AI Act (Regulamento UE 2024/1689) vai além, estabelecendo em seu art. 13 obrigações de transparência que visam justamente viabilizar a prova do nexo causal em disputas judiciais.
Considerações Finais
Os aspectos práticos das teorias do nexo causal probabilístico e da presunção de causalidade revelam que o direito dispõe de instrumentos adequados para enfrentar as dificuldades probatórias inerentes aos sistemas de inteligência artificial. A articulação dessas teorias com o CDC, o PL 2338/23, a LGPD e o AI Act aponta para um modelo probatório que, sem abrir mão do rigor jurídico, adapta-se à realidade tecnológica contemporânea. Parece-nos que o desenvolvimento dessas soluções, pela jurisprudência e pela doutrina brasileiras, é condição indispensável para que o direito cumpra sua função protetiva no contexto da sociedade digital.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".