Voltar ao Blog
Responsabilidade CivilCapítulo 2

As Excludentes de Responsabilidade: Panorama Atual

Panorama atual das excludentes de responsabilidade civil em sistemas de IA: PL 2338/23, AI Act europeu, responsabilidade objetiva, solidariedade e regime consumerista.

Alessandro Lavorante 24 de novembro de 2024 7 min de leitura

As Excludentes de Responsabilidade: Panorama Atual

O panorama atual das excludentes de responsabilidade civil é marcado pela tensão entre o arcabouço normativo tradicional, consolidado ao longo de décadas de construção doutrinária e jurisprudencial, e as demandas regulatórias emergentes impostas pela difusão dos sistemas de inteligência artificial. A análise do estado presente do direito nesta matéria revela tanto a resiliência dos institutos clássicos quanto a necessidade de sua releitura à luz das novas legislações e propostas normativas que vêm sendo produzidas no Brasil e no plano internacional.

Solidariedade na Cadeia de Produção e Distribuição

Em perspectiva preliminar, verificou-se que, nas relações de consumo, todos os participantes da cadeia de produção ou distribuição respondem solidariamente pelo vício ou defeito do produto ou serviço. Essa regra, extraída do art. 7.º, parágrafo único, e do art. 18 do Código de Defesa do Consumidor, tem sido amplamente aplicada pelo Superior Tribunal de Justiça, que consolidou o entendimento de que a solidariedade passiva entre os membros da cadeia de fornecimento é mecanismo de garantia da tutela efetiva do consumidor.

No contexto dos sistemas de inteligência artificial, essa solidariedade apresenta desdobramentos de particular complexidade. A cadeia de fornecimento de sistemas de IA pode envolver desenvolvedores de modelos de linguagem, fornecedores de infraestrutura computacional em nuvem, integradores de sistemas, distribuidores de software e usuários profissionais que customizam e implementam a tecnologia em seus próprios processos produtivos. A responsabilização solidária de todos esses agentes, embora protetiva para a vítima, suscita a necessidade de mecanismos eficientes de ação regressiva que permitam a equânime distribuição dos ônus reparatórios.

O Regime do PL 2.338/2023

O Capítulo V do PL 2.338/2023, aprovado no Senado Federal, estabelece um regime específico de responsabilidade civil para fornecedores e operadores de sistemas de inteligência artificial que merece exame detalhado. O art. 27 impõe a obrigação de reparação integral por danos, independentemente do grau de autonomia do sistema, demonstrando a opção do legislador por recusar a "personalidade eletrônica" como mecanismo de atribuição autônoma de responsabilidade à IA — posição coerente com o estado atual do debate doutrinário no Brasil e no exterior.

Para sistemas de alto risco ou risco excessivo, adota-se a responsabilidade objetiva, concentrando-se no nexo causal entre o dano e o sistema. Chama atenção, na redação do dispositivo, que os fornecedores ou operadores de sistemas de IA responderão "na medida de sua participação no dano", fórmula que introduz critério de proporcionalidade que dialoga com o art. 945 do Código Civil e que poderá gerar discussões sobre sua compatibilidade com o princípio da solidariedade passiva nas relações de consumo.

Para sistemas de menor risco — todos os que não se enquadrarem como de risco alto ou excessivo —, o regime de responsabilidade será subjetivo, mas a culpa do agente será presumida e o ônus da prova revertido em favor da vítima. Parece-nos que essa inversão do ônus probatório, que ecoa o art. 6.º, VIII, do CDC, é uma das mais relevantes inovações do PL, pois reconhece a assimetria informacional estrutural entre vítimas e desenvolvedores de sistemas de IA, conferindo efetividade prática à tutela reparatória.

As Excludentes no Art. 28 do PL 2.338/2023

As excludentes de responsabilidade, previstas no art. 28, delimitam as condições sob as quais os agentes não serão responsabilizados. Entre essas condições estão: a prova de que o agente não introduziu em circulação, "empregou" ou "tirou proveito" do sistema de IA; o dano decorrendo exclusivamente de fato exclusivo da vítima; o dano decorrendo exclusivamente de fato exclusivo de terceiro; e o caso fortuito externo.

Parece-nos que a formulação "introduziu em circulação, empregou ou tirou proveito" é de especial interesse interpretativo. Ao mesmo tempo em que busca abrangência suficiente para cobrir a diversidade de formas de envolvimento dos agentes com os sistemas de IA, a cumulação de verbos pode acenar, de uma só vez, para diversas teorias do risco — como a teoria do risco-proveito, a teoria do risco criado e a teoria do risco da atividade —, o que poderá gerar incerteza interpretativa na aplicação do dispositivo.

A Relação com o Microssistema Consumerista

O art. 29 do PL 2.338/2023 prevê que as relações consumeristas envolvendo danos causados por sistemas de inteligência artificial permanecem prioritariamente sujeitas às disposições do Código de Defesa do Consumidor, sendo aplicáveis as normas do PL apenas quando compatíveis com o microssistema consumerista. Verificou-se que essa disposição, embora louvável em sua intenção de preservar a proteção consumerista, pode gerar conflitos de interpretação nas situações em que as excludentes do art. 28 do PL sejam mais restritivas ou mais amplas do que as do art. 12, § 3.º, do CDC.

A solução mais adequada, a nosso ver, será a de aplicar as excludentes do CDC nas relações de consumo — em razão do princípio da especialidade —, e as excludentes do PL nas demais relações, reservando ao intérprete a tarefa de identificar, caso a caso, a compatibilidade ou incompatibilidade entre os dois regimes.

O AI Act Europeu e Suas Influências

Embora o Regulamento (UE) 2024/1689 — AI Act europeu — não trate diretamente da responsabilidade civil subjetiva ou objetiva, suas disposições acerca de procedimentos de segurança e transparência (arts. 13.º, 14.º e 15.º) podem influir na aferição do nexo causal, caso se demonstre que o desenvolvedor descumpriu as obrigações de diligência impostas para evitar comportamentos indesejados do sistema. Destaca-se, no que tange à interrupção do nexo causal por fatores imprevisíveis ou inevitáveis ou pela atuação de terceiros, que as obrigações de "gestão de riscos" impostas aos fornecedores de sistemas de IA de alto risco — previstas no art. 9.º do AI Act — podem ser correlacionadas às excludentes tradicionais.

Parece-nos que o cumprimento integral das obrigações do AI Act por parte do desenvolvedor funcionará, no plano probatório, como elemento de apoio à alegação de ausência de nexo causal ou de força maior. A certificação de conformidade prevista no regulamento europeu pode tornar-se, progressivamente, referência para a avaliação do standard de diligência exigível dos desenvolvedores de sistemas de IA não apenas na Europa, mas também no Brasil, à medida que o mercado tecnológico global se adapte às exigências do regulamento.

A Proposta de Diretiva Europeia sobre Responsabilidade Civil da IA

Em relação ao direito europeu, merece atenção a Proposta de Diretiva Europeia sobre Responsabilidade Civil da IA (COM/2022/496), que tem estreita relação com os temas aqui tratados. Em especial, o art. 3.º da proposta — relativo à facilitação das regras sobre o ônus da prova — e o art. 4.º — que introduz a presunção de causalidade em determinadas circunstâncias — representam mecanismos que poderiam ser incorporados ao direito brasileiro como alternativas à inversão do ônus da prova prevista no PL 2.338/2023.

A presunção de causalidade, quando o sistema de IA descumpre obrigações regulatórias e esse descumprimento é normalmente apto a produzir o tipo de dano ocorrido, é de especial relevância para a superação do obstáculo da "caixa preta" dos algoritmos complexos, que frequentemente impossibilita a vítima de demonstrar o nexo causal por meios ordinários.

Síntese

Em síntese, o panorama atual das excludentes de responsabilidade civil em matéria de sistemas de inteligência artificial é de transição: as categorias clássicas do Código Civil e do CDC permanecem aplicáveis, mas são progressivamente complementadas e, em alguns aspectos, modificadas pelas normas específicas do PL 2.338/2023 e pelas influências do direito regulatório europeu. Verificou-se que o desafio central para o intérprete é articular coerentemente esses diferentes regimes normativos, preservando a efetividade da tutela das vítimas sem impor ônus desproporcionais ao desenvolvimento da inovação tecnológica.


Referências

  • BRASIL. Código de Defesa do Consumidor (Lei n.º 8.078/1990). Arts. 6.º, VIII, 7.º, parágrafo único, 12, § 3.º, e 18.
  • BRASIL. Código Civil (Lei n.º 10.406/2002). Arts. 393, 927 e 945.
  • BRASIL. Projeto de Lei n.º 2.338/2023. Arts. 27, 28 e 29. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233.
  • UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 — AI Act. Arts. 9.º, 13.º, 14.º e 15.º.
  • UNIÃO EUROPEIA. Proposta de Diretiva sobre Responsabilidade Civil da IA. COM/2022/496. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX%3A52022PC0496.
  • FARIAS, Cristiano Chaves de; BRAGA NETTO, Felipe Peixoto; ROSENVALD, Nelson. Novo Tratado de Responsabilidade Civil. 3. ed. São Paulo: Saraivajur, 2019.
ExcludentesCaso FortuitoForça MaiorCulpa da Vítima

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.