Voltar ao Blog
Responsabilidade CivilCapítulo 2

As Excludentes de Responsabilidade: Questões Emergentes

Excludentes de responsabilidade civil na era da IA: caso fortuito, força maior, culpa da vítima e terceiros sob o PL 2338/23 e o AI Act europeu.

Alessandro Lavorante 1 de dezembro de 2024 6 min de leitura

Em breve retrospecto, verifica-se que as hipóteses excludentes de responsabilidade civil gravitam em torno de um núcleo comum: a quebra ou mitigação do nexo causal. Situações como o estado de necessidade, a legítima defesa, o fato exclusivo da vítima, o fato de terceiro e o caso fortuito ou força maior têm em comum a capacidade de interromper a cadeia causal, afastando, total ou parcialmente, a responsabilização do agente. Essa premissa, consolidada na doutrina civilista clássica, adquire novos contornos quando aplicada a sistemas dotados de inteligência artificial, cuja autonomia decisória desafia as categorias tradicionais de atribuição de responsabilidade.

Cabe ressaltar, antes de tudo, que a doutrina distingue cuidadosamente as concausas das causas excludentes propriamente ditas. Concausas — sejam concomitantes ou supervenientes — não excluem o dever de indenizar quando atuam apenas como fator adicional, sem romper a ligação primordial entre a conduta do agente e o dano. Diversamente, quando o fator externo assume a posição de causa exclusiva do resultado lesivo, configura-se a verdadeira excludente. Essa distinção, aparentemente sutil no plano teórico, revela-se de enorme importância prática, especialmente em casos nos quais múltiplos agentes — humanos e algorítmicos — participam da cadeia causal.

Pergunta-se, então: como operam essas excludentes quando o agente causador do dano é um sistema de inteligência artificial? A resposta não é simples. No âmbito consumerista, embora vigore a responsabilidade objetiva do fornecedor (art. 12 do Código de Defesa do Consumidor — Lei 8.078/90), admite-se a exclusão da responsabilidade diante da culpa exclusiva da vítima ou de terceiro, bem como do denominado fortuito externo — aquele inteiramente alheio à atividade do fornecedor e que não guarda relação com o risco inerente ao produto ou serviço. A doutrina, capitaneada por Bruno Miragem e Sérgio Cavalieri Filho, afirma que o fortuito interno, ao contrário, integra o risco da atividade e, portanto, não elide a responsabilidade objetiva. Nesse ponto, coloca-se uma das questões mais instigantes do direito da inteligência artificial: falhas algorítmicas decorrentes do aprendizado de máquina — isto é, erros que emergem do próprio funcionamento esperado do sistema — configuram fortuito interno ou externo?

Parece-nos que, ao menos sob a perspectiva consumerista, tais falhas devem ser qualificadas como fortuito interno. O risco de que um sistema de IA produza resultados imprevisíveis, mesmo quando corretamente projetado, é inerente à natureza da tecnologia e, portanto, não pode ser oposto ao consumidor lesado como causa excludente. Há, porém, quem sustente posição diversa, argumentando que o caráter genuinamente imprevisível de certas manifestações emergentes dos modelos de aprendizado profundo — comportamentos que surgem sem qualquer programação explícita — aproximar-se-ia do caso fortuito em sentido estrito. Essa corrente minoritária merece atenção, mas não parece compatível com os princípios de vulnerabilidade e hipossuficiência que orientam o CDC.

No plano do direito civil comum, a análise muda de tom. O art. 393 do Código Civil estabelece que o devedor não responde pelos prejuízos resultantes de caso fortuito ou força maior, "se expressamente não se houver por eles responsabilizado". A força maior, conceituada como o evento necessário cujos efeitos não era possível evitar ou impedir, e o caso fortuito — frequentemente equiparado pela lei, embora a doutrina os distinga — funcionam como causas excludentes da responsabilidade contratual e, por extensão analógica, extracontratual. Quando um sistema de IA sofre ataque cibernético de terceiro e, em razão disso, causa dano ao usuário, poder-se-ia cogitar a excludente de fato de terceiro — desde que tal ataque seja absolutamente imprevisível e irresistível no contexto da atividade desenvolvida.

As novas propostas regulatórias aprofundam esse debate. O Projeto de Lei 2.338/2023, em tramitação no Senado Federal, prevê que os agentes do ciclo de vida dos sistemas de inteligência artificial — desenvolvedores, operadores e usuários — devem adotar práticas de governança, avaliação de riscos e conformidade técnica. Nessa arquitetura normativa, a observância das obrigações de segurança e diligência técnica passa a integrar o juízo sobre a presença ou ausência de excludentes. Em outros termos: o desenvolvedor que descumpre os requisitos de segurança estabelecidos no PL 2.338/23 dificilmente poderá invocar o caso fortuito, pois o evento danoso decorrerá, ao menos em parte, de sua própria omissão diligencial.

O AI Act europeu (Regulamento UE 2024/1689), por sua vez, adota abordagem semelhante ao classificar sistemas de IA por graus de risco e exigir, para cada categoria, requisitos específicos de robustez, precisão e supervisão humana. No regime do AI Act, as excludentes de responsabilidade tendem a ser ainda mais restritas para sistemas classificados como de alto risco — como aqueles empregados em decisões sobre crédito, saúde, emprego ou controle de infraestrutura crítica. Nesses casos, a mera demonstração de conformidade técnica com os padrões harmonizados funciona como elemento relevante na aferição da devida diligência, mas não necessariamente como excludente autônoma.

Verifica-se, portanto, uma tendência convergente nas legislações brasileira e europeia: as excludentes clássicas permanecem formalmente aplicáveis, mas sua operacionalidade é significativamente condicionada pelo cumprimento — ou descumprimento — das obrigações específicas de segurança e governança impostas aos agentes do ecossistema de IA. Trata-se de um modelo em que a diligência ex ante — manifestada no design seguro, na documentação técnica adequada, na avaliação de impacto e no monitoramento contínuo — influencia diretamente a aferição da responsabilidade ex post.

Qual seria o contraponto a essa tendência? Há quem argumente que a imposição de responsabilidade objetiva irrestrita, ou o esvaziamento excessivo das excludentes, pode inibir o desenvolvimento tecnológico e a inovação. Afinal, se nenhuma excludente se aplica a sistemas de IA de alto risco independentemente das medidas adotadas, cria-se um desincentivo à pesquisa e ao desenvolvimento. Esse argumento tem mérito no plano econômico, mas deve ser temperado pela constatação de que a ausência de mecanismos robustos de responsabilização gera externalidades negativas igualmente graves — como a proliferação de sistemas inseguros no mercado, especialmente em setores sensíveis como saúde e segurança pública.

Em última análise, constata-se que a delimitação do nexo causal continua no centro de todos os mecanismos exoneratórios. É a presença — ou ausência — de um liame claro entre conduta e dano que justifica o dever de reparar ou sua completa exclusão. Nos cenários de inteligência artificial, essa tarefa torna-se substancialmente mais complexa em razão da opacidade dos sistemas, da multiplicidade de agentes envolvidos e da natureza autônoma das decisões algorítmicas. A conjugação das teorias clássicas da causalidade com os novos parâmetros normativos do PL 2.338/23 e do AI Act oferece, assim, o ferramental necessário para enfrentar esse desafio com rigor e proporcionalidade — tarefa que as seções subsequentes desta obra buscam desenvolver em maior profundidade.

ExcludentesCaso FortuitoForça MaiorCulpa da Vítima

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.