A Responsabilidade Objetiva e o Nexo Causal: Estrutura Normativa
No regime jurídico brasileiro, a responsabilidade objetiva decorre de previsão legal ou da realização de atividade "de risco", de acordo com o art. 927, parágrafo único, do Código Civil, que estabelece: "haverá obrigação de reparar o dano, independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem". Parece-nos que essa cláusula geral de risco desempenha papel fundamental na responsabilização pelos danos causados por sistemas de inteligência artificial, especialmente quando esses sistemas são utilizados em atividades que, por sua natureza, implicam risco intrínseco para terceiros.
O agente, porém, conserva a possibilidade de afastar a responsabilidade se demonstrar excludentes do nexo, como a culpa exclusiva da vítima ou de terceiros, bem como caso fortuito ou força maior, hipóteses previstas no Código Civil e no Código de Defesa do Consumidor (arts. 12, § 3º, e 14, § 3º). Verificou-se que a distinção entre caso fortuito interno — decorrente da própria atividade desenvolvida — e caso fortuito externo — inteiramente alheio a ela — é decisiva nesse contexto: apenas o fortuito externo tem eficácia excludente na responsabilidade objetiva fundada no risco da atividade.
Ausência de Definição Legal e o Papel da Doutrina
As legislações de base — como o próprio Código Civil, o CDC e, no plano europeu, a Diretiva 85/374/CEE —, não trazem definição expressa de nexo de causalidade. Cabe então à doutrina e à jurisprudência definir muitos desses critérios para vincular o defeito do produto ao dano. Parece-nos que essa lacuna normativa é, em certa medida, intencional: o legislador preferiu deixar ao intérprete a tarefa de adequar os critérios causais às especificidades de cada caso, em lugar de fixar uma definição rígida que pudesse se revelar inadequada diante da diversidade de situações concretas.
Os juristas costumam concordar em restringir a reparação somente aos prejuízos efetivamente provocados pela conduta ilícita ou antijurídica, excluindo danos que escapem ao elo entre ação ou omissão e resultado. Essa restrição tem dupla justificação: protege o responsável de uma exposição patrimonial ilimitada por eventos causalmente distantes de sua conduta, e preserva a coerência interna do sistema de responsabilidade civil, que não deve tornar-se um mecanismo de socialização indiscriminada de riscos.
Causalidade e Culpabilidade: Aprofundamento
A distinção entre causalidade (imputatio facti) e culpabilidade (imputatio iuris) tem relevância metodológica que não se esgota no plano teórico. Em linhas gerais, a causalidade se concentra na relação objetiva entre conduta e resultado, ao passo que a culpabilidade reflete o juízo de valor acerca da atribuição de responsabilidade. Serpa Lopes enfatizava que causalidade e culpabilidade são esferas distintas: a primeira diz respeito ao vínculo fático, enquanto a segunda examina a legitimidade de responsabilizar o agente.
Verificou-se que essa distinção tem implicações práticas relevantes na análise dos danos por IA. Em muitos casos, a dificuldade não está em provar que o operador do sistema agiu com negligência — pois a responsabilidade objetiva dispensa essa prova —, mas em demonstrar que o resultado danoso se liga causalmente ao funcionamento do sistema, e não a outro fator exógeno. A complexidade técnica dos modelos de aprendizado de máquina pode tornar essa demonstração particularmente árida para a vítima, exigindo o auxílio de peritos especializados e, eventualmente, a inversão ou facilitação do ônus da prova.
A verificação sequencial desses componentes asseguraria, em tese, uma imputação mais criteriosa e técnica. Na prática, porém, as duas análises frequentemente se entrelaçam: a definição de qual conduta foi causalmente relevante para o dano pode depender de um juízo normativo sobre quais riscos deveriam ter sido gerenciados pelo operador, o que por sua vez envolve considerações de culpabilidade. Parece-nos que essa interpenetração é especialmente intensa nos casos de responsabilidade por omissão, nos quais a identificação da conduta causalmente relevante pressupõe a definição prévia de um dever de agir.
A Teoria da Causalidade Adequada e sua Aplicação aos Danos por IA
A teoria da causalidade adequada — adotada majoritariamente pela doutrina e pela jurisprudência brasileiras — restringe o conceito de causa à condição que, segundo um juízo de probabilidade ex ante, era adequada para produzir o resultado. Essa abordagem tem a virtude de limitar a responsabilização a agentes cuja conduta apresentava, de antemão, aptidão para produzir o tipo de dano verificado, evitando a expansão ilimitada da obrigação de indenizar.
No contexto dos danos por IA, a teoria da causalidade adequada enfrenta o desafio da imprevisibilidade inerente a sistemas de aprendizado de máquina. Um modelo treinado com determinados dados pode produzir resultados que nenhum observador razoável teria antecipado, não por defeito, mas por decorrência do próprio mecanismo de aprendizado. Verificou-se que, nesses casos, a pergunta relevante para a teoria da causalidade adequada não é se o resultado específico era previsível, mas se o tipo de risco que se materializou era previsível para quem desenvolveu ou operou o sistema.
Parece-nos que essa reformulação da teoria da causalidade adequada é necessária para que ela permaneça operacional no contexto tecnológico contemporâneo. A previsibilidade deve ser avaliada não em relação ao resultado específico, mas em relação à categoria de riscos associada à atividade, o que inclui os riscos de viés, de falha sistêmica e de comportamento emergente característicos dos sistemas de IA.
A Teoria do Dano Direto e Imediato e o Art. 403 do Código Civil
O art. 403 do Código Civil adota a teoria do dano direto e imediato, estabelecendo que "ainda que a inexecução resulte de dolo do devedor, as perdas e danos só incluem os danos emergentes e os lucros cessantes por efeito dela direto e imediato, sem prejuízo do disposto na lei processual". Essa disposição restringe o nexo causal aos danos que sejam consequência direta e imediata do fato gerador, excluindo os danos mediatos ou reflexos.
Verificou-se que a aplicação do art. 403 aos danos por IA pode criar dificuldades adicionais para a tutela das vítimas, especialmente quando o dano se manifesta de forma diferida ou indireta. Um viés algorítmico em um sistema de concessão de crédito, por exemplo, pode privar a vítima de acesso a financiamento, o que por sua vez inviabiliza um empreendimento, gerando lucros cessantes que podem ser considerados danos mediatos. A cadeia de danos indiretos característica de muitas situações de lesão por IA pode, em tese, ser parcialmente excluída da reparação pela teoria do dano direto e imediato.
Parece-nos que a solução para esse problema está na interpretação do art. 403 à luz do princípio constitucional da reparação integral: a restrição aos danos diretos e imediatos não deve ser interpretada de modo a criar zonas de impunidade para os danos previsíveis e típicos das atividades de alto risco. A jurisprudência do STJ já sinalizou, em determinados contextos, uma interpretação mais ampla da relação de causalidade que permite a reparação de danos mediatos quando eles são consequência previsível e típica do fato gerador.
Excludentes do Nexo Causal e sua Aplicação nos Danos por IA
As principais excludentes do nexo causal no direito brasileiro são: o fato exclusivo da vítima, o fato de terceiro e o caso fortuito ou força maior. Verificou-se que cada uma dessas excludentes pode ser invocada, com maior ou menor plausibilidade, nos casos de danos causados por sistemas de IA.
O fato exclusivo da vítima — como o fornecimento de dados falsos que induziram o sistema a produzir resultado danoso — pode, em tese, afastar o nexo causal. Parece-nos, contudo, que essa excludente deve ser aplicada com cautela, pois a vítima frequentemente não tem condições de prever as consequências de suas interações com o sistema de IA, e a responsabilidade de projetar o sistema de modo a minimizar o impacto de erros dos usuários recai sobre o operador.
O fato de terceiro — como um ataque cibernético que compromete o sistema e produz resultados danosos — pode igualmente afastar o nexo causal, desde que o ataque seja externo e imprevisível. Contudo, a inobservância dos padrões de cibersegurança impostos pelo AI Act ou pelo PL 2338/23 pode converter o fortuito externo em fortuito interno, mantendo a responsabilidade do operador.
Perspectivas para a Evolução do Nexo Causal
A evolução doutrinária e jurisprudencial do nexo de causalidade no contexto da IA aponta para algumas tendências relevantes. Em primeiro lugar, verificou-se a crescente aceitação de presunções de causalidade baseadas em critérios estatísticos — como a demonstração de que o sistema produziu o tipo de resultado verificado em uma proporção significativa de casos similares. Em segundo lugar, o recurso a perícias técnicas especializadas como meio de prova do nexo causal tende a se tornar cada vez mais comum e relevante.
Parece-nos que a construção de um regime jurídico robusto para os danos por IA requer não apenas adaptações normativas, mas também o desenvolvimento de expertise técnica nos tribunais e nos serviços de apoio ao judiciário. A criação de institutos de perícia especializada em sistemas de IA, a par da regulação específica sobre documentação e auditabilidade desses sistemas, seria uma contribuição decisiva para a efetividade da tutela reparatória.
Considerações Finais
A análise aprofundada do nexo de causalidade revela sua centralidade e sua complexidade como elemento da responsabilidade civil no contexto da inteligência artificial. A ausência de definição legal expressa, a multiplicidade de teorias disponíveis e os desafios específicos dos sistemas de aprendizado de máquina exigem do intérprete uma combinação de fidelidade aos fundamentos clássicos e abertura criativa para adaptar os conceitos às exigências da realidade tecnológica contemporânea. Parece-nos que o nexo causal permanece, como sempre foi, o elemento mais exigente da análise de responsabilidade civil — e que os avanços tecnológicos não fazem senão confirmar essa avaliação, multiplicando as situações em que sua determinação desafia as categorias estabelecidas.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".