Introdução
Ao longo do Capítulo 2, examinou-se o conjunto das principais teorias da causalidade aplicáveis à responsabilidade civil por inteligência artificial. Percorremos desde os fundamentos clássicos da equivalência das condições e da causalidade adequada até as formulações mais recentes da causalidade probabilística, da presunção de causalidade e da causalidade psíquica. É chegado o momento de formular considerações críticas sobre esse percurso teórico e de identificar os limites e as potencialidades de cada abordagem no enfrentamento dos desafios impostos pelos sistemas de IA. Parece-nos que esse balanço crítico é condição necessária para o avanço do estudo em direção ao tema central do próximo capítulo: os critérios de imputação de responsabilidade.
Os Limites das Teorias Clássicas
As teorias clássicas da causalidade — equivalência das condições e causalidade adequada — apresentam limitações evidentes quando aplicadas a sistemas de inteligência artificial. A equivalência das condições, ao tratar toda condição necessária para o resultado como causa juridicamente relevante, produz uma responsabilidade excessivamente ampla em ecossistemas tecnológicos complexos: se toda condição que contribuiu para o desenvolvimento do sistema fosse considerada causa do dano, a responsabilidade poderia recair sobre fabricantes de chips, provedores de infraestrutura de nuvem, pesquisadores que publicaram artigos utilizados no treinamento do modelo — uma expansão inaceitável.
A causalidade adequada, por sua vez, limita a responsabilidade às condutas que, segundo um juízo de probabilidade fundado na experiência ordinária, eram adequadas para produzir o resultado. Essa limitação é bem-vinda, mas apresenta uma dificuldade específica no contexto da IA: a experiência ordinária ainda não acumulou dados suficientes sobre o comportamento de sistemas altamente complexos e autônomos, tornando incerto o juízo sobre quais condutas são "adequadas" para produzir determinados danos.
A Imputação Objetiva como Solução Intermediária
A teoria da imputação objetiva, derivada da dogmática penal alemã e adaptada ao direito civil, oferece uma solução intermediária que parece-nos mais adequada ao contexto tecnológico. Ao perguntar não apenas "o que causou o dano?" mas "a quem se pode imputar juridicamente a criação do risco que se materializou no dano?", a imputação objetiva introduz critérios normativos — risco proibido, escopo da norma — que permitem uma seleção mais refinada dos agentes responsáveis.
Verifica-se, assim, que avaliar se o agente agiu dentro dos limites impostos por normas protetivas remete diretamente ao conceito de risco proibido e de escopo normativo. No contexto da IA, isso significa perguntar: o desenvolvedor do sistema cumpriu os requisitos de governança, transparência e segurança impostos pelo PL 2338/23? O operador garantiu a supervisão humana exigida para sistemas de alto risco? O usuário utilizou o sistema nos limites definidos pelo fornecedor? Essas perguntas permitem uma distribuição de responsabilidade que reflita a contribuição efetiva de cada agente para a criação do risco.
A Transição para o Nexo de Imputação
A correta identificação dos elementos formadores da responsabilidade civil — conduta, dano e nexo de causalidade — é apenas uma parte da equação. Para que a responsabilização seja efetivamente atribuída a alguém, seja na forma subjetiva ou objetiva, faz-se necessário avançar no debate sobre o nexo de imputação.
Há uma distinção conceitual fundamental que não pode ser negligenciada: se o nexo causal nos mostra quem é a causa do dano, o nexo de imputação nos esclarece a razão pela qual se atribui o dever de reparar a um determinado sujeito. O nexo de imputação abarca a análise de culpa, dolo, risco e os elementos normativos e teóricos que justificam a responsabilização — elementos que vão além da mera constatação do liame causal.
Essa distinção é especialmente relevante no contexto da IA: um sistema de inteligência artificial pode ser tecnicamente a causa de um dano sem que, por isso, seu desenvolvedor, operador ou usuário seja juridicamente imputável — seja porque agiu dentro dos limites do risco permitido, seja porque o dano decorreu de circunstâncias fortuitas externas, seja porque a intervenção de terceiro rompeu o nexo causal. O nexo de imputação, portanto, é o filtro jurídico que traduz a constatação causal em dever de reparar.
A Influência do AI Act e do PL 2338/23 no Nexo de Imputação
O AI Act (Regulamento UE 2024/1689) e o PL 2338/23 contribuem para a construção do nexo de imputação ao estabelecer obrigações regulatórias cujo descumprimento funciona como elemento de imputação. O art. 16 do AI Act, por exemplo, lista as obrigações dos fornecedores de sistemas de IA de alto risco, cujo descumprimento cria presunção de responsabilidade pelos danos decorrentes. Do mesmo modo, o art. 19 do PL 2338/23, ao exigir avaliações de impacto para sistemas de alto risco, torna o descumprimento dessas obrigações um elemento central do nexo de imputação no ordenamento brasileiro.
Verifica-se, portanto, que o nexo de imputação em matéria de IA é crescentemente construído sobre bases regulatórias: o agente que cumpre as obrigações de governança, transparência e segurança impostas pela lei tem, em princípio, sua responsabilidade excluída ou atenuada; o que as descumpre tem sua imputabilidade presumida.
O Código Civil e a Dualidade Culpa-Risco
O Código Civil (Lei nº 10.406/2002) mantém a dualidade entre responsabilidade subjetiva (fundada na culpa, art. 186) e objetiva (fundada no risco, art. 927, parágrafo único). No contexto da IA, a responsabilidade objetiva tende a ser o regime predominante para os fornecedores de sistemas de alto risco, enquanto a subjetiva pode ser aplicada a operadores e usuários que, por dolo ou culpa, contribuíram para a produção do dano além do risco inerente ao sistema.
Essa dualidade permite uma distribuição de responsabilidade que reflita tanto a dimensão estrutural do risco — imputada objetivamente ao fornecedor — quanto a dimensão comportamental — imputada subjetivamente a quem agiu com culpa. Parece-nos que essa combinação é a que melhor equilibra a proteção do lesado e a segurança jurídica dos agentes no contexto dos sistemas inteligentes.
Considerações Finais
As considerações críticas sobre as teorias da causalidade revelam que o ordenamento jurídico brasileiro dispõe de instrumentos normativos e teóricos suficientes para enfrentar os desafios da responsabilidade civil por IA — desde que articulados de forma coerente e sistemática. A transição do nexo causal para o nexo de imputação, que se examinará no próximo capítulo, é o passo seguinte indispensável para a construção de um regime de responsabilidade civil que seja, ao mesmo tempo, juridicamente rigoroso e tecnologicamente adequado.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".