O percurso pelas principais teorias da causalidade — da equivalência das condições à causalidade adequada, da imputação objetiva ao nexo causal probabilístico — desemboca em um sistema que, longe de ser monista, é fundamentalmente pluralista. Diferentes correntes teóricas são evocadas conforme as peculiaridades de cada caso, e não há, no direito civil brasileiro contemporâneo, uma única teoria consagrada com exclusividade para a resolução de todos os litígios envolvendo nexo causal. Essa constatação, registrada por Bruno Miragem e Cláudio Dantas Bisneto, não representa uma fraqueza do sistema, mas antes um índice de sua maturidade: a complexidade da realidade jurídica exige instrumentos analíticos flexíveis, capazes de responder às especificidades de cada situação concreta.
Essa necessidade de flexibilidade torna-se ainda mais crítica em cenários de inteligência artificial, onde o comportamento autônomo do algoritmo pode tanto expandir como mitigar a caracterização do nexo causal. Um sistema de aprendizado por reforço, por exemplo, pode desenvolver estratégias de ação que seus criadores não previram e, em certos casos, não conseguem sequer explicar retrospectivamente. Essa opacidade decisória — o fenômeno da "caixa-preta" — desafia a premissa subjacente a todas as teorias causais clássicas: a de que é possível, ao menos em princípio, reconstruir a cadeia de eventos que conduziu ao dano. Quando essa reconstrução é impossível ou apenas parcialmente acessível, o sistema jurídico precisa de mecanismos complementares para não paralisar diante da incerteza.
Não existe consenso universal sobre a aplicação estrita de uma única teoria do nexo causal, mas desponta uma tendência de conjugação de fundamentos que merece ser explicitada em seus elementos constitutivos. Em primeiro lugar, a causalidade adequada funciona como filtro inicial, eliminando das análises as causas que, segundo o curso normal e ordinário das coisas, seriam inaptas a produzir o resultado lesivo — afastando, assim, conexões meramente acidentais ou remotas entre conduta e dano. Em segundo lugar, a teoria do escopo de proteção da norma acrescenta limites valorativos ao nexo causal, restringindo a imputação aos danos que se inserem na finalidade protetiva da norma violada — critério especialmente útil quando o fundamento da responsabilidade é o descumprimento de obrigações regulatórias específicas, como as impostas pelo PL 2.338/23 aos desenvolvedores e operadores de sistemas de IA. Em terceiro lugar, a teoria da imputação objetiva do resultado oferece o enquadramento mais sofisticado para os casos em que o comportamento algorítmico cria ou incrementa um risco proibido — isto é, um risco que excede o limite do tolerável segundo os padrões normativos vigentes.
Os dispositivos do AI Act europeu (Regulamento UE 2024/1689) e da Proposta de Diretiva Europeia sobre Responsabilidade Civil da IA (COM/2022/496) reforçam essa tendência ao consagrar mecanismos de facilitação probatória e presunção de nexo causal quando o sistema for classificado como de alto risco ou quando o agente tiver maior capacidade de supervisão e gerenciamento do algoritmo. A presunção de causalidade estabelecida na Proposta de Diretiva — segundo a qual, demonstrada a não conformidade do sistema com os requisitos do AI Act e a plausibilidade do nexo causal, presume-se que o defeito causou o dano —, representa uma transposição normativa do princípio do nexo causal probabilístico para o campo da responsabilidade civil por IA, com a vantagem de operar no plano da inversão do ônus da prova em vez de substituir integralmente o requisito de causalidade.
O PL 2.338/23, ao prever diferentes graus de responsabilização e especificar condutas exigíveis dos desenvolvedores e operadores de sistemas de IA no Brasil, aproxima-se das concepções de risco proibido e de dever de vigilância encontradas nas legislações europeias. Reproduz, ainda que em outro contexto cultural e jurídico, a ideia de que, para a configuração do liame causal, o não cumprimento das obrigações legais de segurança do sistema consubstancia o nexo entre conduta e dano. Assim, enquanto a teoria da equivalência das condições continua sendo, para muitos intérpretes, a base usualmente empregada para aferição inicial da causalidade fática, as legislações — ao menos a brasileira em gestação e as da União Europeia já positivadas — caminham no sentido de criar normas específicas que, à semelhança da causalidade adequada e da imputação objetiva, filtram as hipóteses de responsabilização em razão do tipo de risco criado pela tecnologia e do grau de diligência observado pelos agentes do ciclo de vida do sistema.
Pergunta-se, legitimamente, se esse modelo normativo emergente é capaz de conciliar dois objetivos que, à primeira vista, tensionam-se: a proteção efetiva das vítimas de danos causados por IA e o fomento à inovação tecnológica responsável. A resposta afirmativa está condicionada à precisão dos critérios de classificação de risco e à razoabilidade das obrigações impostas a cada categoria de agente. Um regime em que todo sistema de IA — independentemente de seu nível de autonomia, da sensibilidade dos dados que processa e do potencial de dano de suas decisões — seja submetido às mesmas obrigações e ao mesmo regime de responsabilidade seria duplamente ineficiente: oneraria excessivamente aplicações de baixo risco e forneceria proteção insuficiente às vítimas de sistemas de alto risco. O AI Act, ao estratificar os sistemas de IA em quatro categorias (inaceitável, alto risco, risco limitado e risco mínimo), adota precisamente essa lógica de proporcionalidade regulatória.
Em síntese, verifica-se que a atribuição do dever de reparar em cenários de inteligência artificial depende tanto da conjugação pontual de critérios diversos de causalidade quanto do cumprimento — ou não — de obrigações específicas que visam reduzir riscos e assegurar conformidade com princípios de confiabilidade e segurança. Não basta a existência de uma condição fática que, em tese, contribua para o dano. Torna-se imprescindível, em casos de alta complexidade tecnológica, verificar: (i) se a conduta do agente era, segundo critérios objetivos de previsibilidade, apta a produzir aquele tipo de resultado; (ii) se o dano ocorrido está compreendido no escopo de proteção das normas aplicáveis; (iii) se o risco criado excede o limiar do permitido segundo os padrões normativos e técnicos vigentes; e (iv) se o agente cumpriu as obrigações de diligência, documentação e supervisão impostas pela legislação pertinente.
É precisamente essa conjugação entre teoria e norma, entre princípios jurídicos gerais e regras técnicas específicas, que confere ao direito da responsabilidade civil pela inteligência artificial sua feição característica: um campo em construção, mas não sem fundamentos, que exige do intérprete tanto o domínio do aparato conceitual da responsabilidade civil clássica quanto a abertura para compreender as especificidades técnicas e os desafios regulatórios de uma tecnologia que reconfigura, em profundidade, as relações entre agentes, riscos e danos.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".