Introdução
As perspectivas e os desafios que se apresentam ao estudo das teorias da causalidade no contexto da inteligência artificial são, em grande medida, o reflexo das tensões entre a racionalidade jurídica tradicional e a complexidade dos sistemas tecnológicos contemporâneos. A responsabilidade civil, construída sobre categorias elaboradas para relações entre agentes humanos identificáveis, encontra dificuldades crescentes quando aplicada a sistemas que decidem, recomendam e atuam de forma autônoma. Entre as teorias que procuram superar essas dificuldades, a presunção de causalidade e a causalidade psíquica merecem exame detido, tanto por seus fundamentos teóricos quanto por suas aplicações práticas em cenários de IA.
A Presunção de Causalidade Aplicada a Decisões Algorítmicas
A presunção de causalidade opera como instrumento probatório que permite ao juiz, com base em indícios objetivos e estudos técnicos, inferir o nexo entre a conduta do agente e o dano sofrido pelo lesado. Sua aplicação em contextos de IA revela-se especialmente adequada quando os sistemas algorítmicos são utilizados para decisões que afetam significativamente os direitos dos indivíduos — como seleção, demissão, concessão de crédito ou acesso a serviços públicos.
Ilustre-se com a situação em que uma empresa utiliza um sistema de inteligência artificial para identificar colaboradores de "baixo desempenho" e proceder a demissões. Posteriormente, verifica-se que o modelo algorítmico estava enviesado, classificando equivocadamente certos funcionários como ineficientes, gerando, por consequência, perda de renda, estresse psicológico e dificuldade de recolocação profissional.
A presunção de causalidade se aplicaria se estudos técnicos apontassem a falha sistemática do software — por exemplo, relatórios estatísticos demonstrando que o modelo penalizava padrões associados a grupos minoritários ou a determinadas variáveis irrelevantes para a avaliação de desempenho. Nessa situação, o juiz não inverte o ônus da prova, mas, apoiado nesses dados concretos, presume que a adoção do sistema de IA influenciou diretamente as dispensas injustificadas, servindo como fundamento para a responsabilidade da empresa.
A Distinção entre Nexo Causal Probabilístico e Presunção de Causalidade
Ao examinar os cenários envolvendo nexo causal probabilístico e presunção de causalidade, pode surgir alguma aparente similitude entre as soluções propostas por cada teoria. Há, no entanto, uma diferença relevante que não pode ser negligenciada. Pelo método probabilístico, a probabilidade estatística de que determinada conduta haja causado o dano é, em si mesma, suficiente para fundamentar a responsabilidade, mesmo sem prova incontestável do elo entre causa e efeito. Em outras palavras, o uso de dados quantitativos — estudos epidemiológicos ou correlações de grande amplitude — é aceito como critério bastante para presumir a responsabilidade em razão da elevada probabilidade de contribuição para o dano.
Já a presunção de causalidade não se ancora necessariamente apenas em probabilidades estatísticas, mas em um raciocínio lógico-dedutivo que leva o juiz a presumir o vínculo causal com base em provas indiretas ou indícios sólidos que podem envolver estatísticas, mas não se limitam a elas. A diferença, portanto, é metodológica: enquanto o nexo probabilístico é essencialmente quantitativo, a presunção de causalidade é fundamentalmente inferencial, admitindo maior variedade de elementos probatórios.
A Teoria da Causalidade Psíquica
Parece-nos que um dos desenvolvimentos mais instigantes no campo das teorias da causalidade é a chamada teoria da causalidade psíquica — proeminentemente exposta, no Brasil, pela doutrina de Cícero Dantas Bisneto. Essa teoria surge quando a conduta de um agente cria condições para que outro, por influência volitiva própria, pratique o ato danoso. Embora o termo seja criticado por abarcar situações sem intervenção psicológica stricto sensu, convencionou-se empregá-lo para designar casos em que a ação decisiva se desloca para o agente intermediário, mas deriva de uma condição inicial — como omissões de segurança — criada pelo agente originário.
No contexto dos sistemas de IA, a causalidade psíquica apresenta aplicações relevantes, especialmente em cenários que envolvem falhas de segurança cibernética. Se uma empresa deixa de implementar medidas adequadas de proteção em seu sistema e um terceiro, aproveitando-se da vulnerabilidade criada, pratica um ato danoso, a causalidade psíquica justifica a responsabilização conjunta da empresa, ao reconhecer que sua omissão foi a condição inicial que viabilizou a conduta lesiva do terceiro.
Em Portugal e em outros países europeus, a responsabilidade por influência psíquica é reconhecida a partir de critérios adicionais, como o "critério da provocação" ou o exame do escopo da norma violada. No direito brasileiro, contudo, subsiste escasso desenvolvimento teórico específico para lidar com a mediação psíquica no contexto tecnológico, o que representa um dos principais desafios para a doutrina e a jurisprudência nacionais.
O PL 2338/23 e os Desafios da Imputação Automatizada
O PL 2338/23 enfrenta diretamente o desafio da imputação em sistemas autônomos ao estabelecer, em seus arts. 19 e seguintes, obrigações de supervisão humana para sistemas de IA de alto risco. A exigência de supervisão humana tem, entre suas finalidades, a de criar um ponto de imputação identificável na cadeia de responsabilidade: o operador humano que deveria supervisionar o sistema torna-se corresponsável pelos danos causados na ausência dessa supervisão.
Essa solução, embora pragmaticamente adequada, não resolve integralmente o problema da causalidade em sistemas totalmente autônomos, nos quais a intervenção humana é estruturalmente impossível ou desnecessária. Nesses casos, o AI Act (Regulamento UE 2024/1689) propõe uma solução diversa: a responsabilidade do fornecedor pelos danos causados por sistemas de IA de alto risco é presumida quando verificado o descumprimento das obrigações regulatórias, transferindo ao fornecedor o ônus de demonstrar que o dano não decorreu das características do sistema.
O Direito de Explicação e a LGPD
A LGPD (Lei nº 13.709/2018), em seu art. 20, garante ao titular de dados o direito de obter explicações sobre decisões automatizadas que o afetem. Esse direito tem implicações diretas para as teorias da causalidade: a recusa ou a impossibilidade de fornecer explicações sobre o funcionamento do algoritmo constitui indício relevante de que o sistema operou de forma opaca, contribuindo para a presunção de causalidade em favor do lesado.
Considerações Finais
As perspectivas e os desafios examinados revelam que as teorias da causalidade — presunção de causalidade, nexo causal probabilístico e causalidade psíquica — oferecem, em conjunto, instrumentos suficientes para enfrentar os problemas mais urgentes da responsabilidade civil por IA. Parece-nos, contudo, que sua aplicação eficaz depende de um esforço doutrinário e jurisprudencial consistente, capaz de adaptar esses instrumentos à especificidade dos sistemas tecnológicos e de articulá-los com os marcos normativos em construção — PL 2338/23, AI Act e LGPD. Esse é o horizonte que o direito brasileiro deve perseguir.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".