Voltar ao Blog
ImputaçãoCapítulo 3

O Nexo de Imputação e os Regimes de Responsabilidade: Tendências Regulatórias

Exame das tendências regulatórias globais sobre imputação de responsabilidade em inteligência artificial, com foco no PL 2338/23, no AI Act e na Diretiva Europeia de Responsabilidade Civil da IA.

Alessandro Lavorante 12 de março de 2025 7 min de leitura

Introdução

As tendências regulatórias em matéria de responsabilidade civil por danos decorrentes de inteligência artificial revelam um movimento global de superação das categorias tradicionais de imputação. A crescente sofisticação dos sistemas de IA — especialmente aqueles dotados de capacidade de autoaprendizado —, aliada à assimetria informacional entre desenvolvedores, operadores e vítimas, exige que os ordenamentos jurídicos construam respostas normativas que equilibrem proteção efetiva das vítimas, estímulo à inovação e clareza na alocação de responsabilidades.

Este artigo examina as principais tendências regulatórias em âmbito nacional e comparado, com especial atenção ao Projeto de Lei nº 2.338, de 2023 (PL 2338/23), ao AI Act europeu (Regulamento UE 2024/1689) e à Proposta de Diretiva sobre Responsabilidade Civil da IA (COM/2022/496 final), além das recomendações do Parlamento Europeu e do Expert Group on Liability and New Technologies.

O PL 2338/23 e a Estratégia Brasileira de Diferenciação por Risco

No Brasil, o PL 2338/23 representa a principal iniciativa legislativa de regulação da IA, e seu tratamento da responsabilidade civil constitui um dos seus aspectos mais relevantes para o direito privado. O projeto adota uma estratégia de diferenciação por nível de risco, ao prever dois regimes distintos de imputação.

O primeiro regime, previsto no art. 27, §1º, é de natureza objetiva e se aplica aos sistemas de IA classificados como de alto risco ou risco excessivo. Nessas hipóteses, a responsabilidade é dividida proporcionalmente à participação de cada agente no dano, sem necessidade de comprovação de culpa. Essa solução, ao mesmo tempo em que facilita a reparação da vítima, distribui os ônus entre os diferentes atores da cadeia de desenvolvimento e operação do sistema — desenvolvedor, fornecedor, operador e usuário —, conforme a extensão de seu respectivo controle sobre os riscos.

O segundo regime, previsto no art. 27, §2º, aplica-se aos demais sistemas de IA e prevê a presunção de culpa do agente, com inversão do ônus da prova em favor da vítima. Esse regime semiobjetivo é especialmente relevante nas relações de consumo, onde o CDC já estabelece mecanismos de facilitação probatória (art. 6º, VIII) e responsabilidade objetiva do fornecedor (art. 14). A referência do PL 2338/23 ao art. 28, que submete primariamente as relações consumeristas em IA ao CDC, reforça a coerência sistêmica da proposta.

Parece-nos que essa estrutura dual é adequada do ponto de vista da proporcionalidade: impõe ônus mais severos onde os riscos são maiores e preserva um espaço de responsabilidade baseada em culpa — ainda que presumida — para os sistemas de menor potencial lesivo. O desafio estará, na prática, na delimitação precisa dos critérios de classificação dos sistemas em alto risco ou risco excessivo, tarefa que exige expertise técnica e atualização regulatória contínua.

O AI Act: Regulação Preventiva como Instrumento de Imputação

O AI Act (Regulamento UE 2024/1689), em vigor desde agosto de 2024, não disciplina diretamente a responsabilidade civil, mas cria um robusto arcabouço regulatório preventivo que influencia decisivamente a dinâmica dos litígios indenizatórios. Ao exigir que os provedores de sistemas de IA de alto risco mantenham um sistema contínuo de gestão de riscos (art. 9º), o regulamento estabelece padrões de conduta cujo descumprimento pode ser invocado como elemento de imputação nos processos civis.

O AI Act classifica os sistemas de IA em quatro categorias de risco — inaceitável, alto, limitado e mínimo —, associando a cada uma delas obrigações específicas de transparência, documentação, supervisão humana e teste de conformidade. Verificou-se que essa estratificação regulatória tem o efeito prático de criar presunções implícitas: o fornecedor que coloca no mercado um sistema de alto risco sem cumprir os requisitos do regulamento dificilmente poderá invocar, nos litígios civis, a ausência de culpa ou a conformidade técnica do produto.

Nesse sentido, o AI Act funciona como um standard de diligência objetivamente definido, cuja observância ou violação tem reflexos diretos na análise do nexo de imputação nos sistemas de responsabilidade civil dos Estados-membros.

A Proposta de Diretiva Europeia: Inversão do Ônus da Prova e Proteção da Vítima

A Proposta de Diretiva sobre Responsabilidade Civil da IA (COM/2022/496 final) aborda diretamente o problema da assimetria informacional nos litígios envolvendo sistemas de IA. O art. 4º da proposta prevê a possibilidade de o juiz determinar a produção de provas por parte do demandado em situações nas quais a vítima, pelas particularidades técnicas da IA, não disponha dos meios necessários para comprovar o dano sofrido.

Esse mecanismo de facilitação probatória é complementado pela possibilidade de o juiz presumir a existência do nexo causal quando o demandado não cumprir a obrigação de apresentar as informações técnicas solicitadas — aproximando-se, assim, da técnica da responsabilidade pela omissão em fornecer informações, já conhecida no direito consumerista brasileiro.

A Resolução do Parlamento Europeu de 20 de outubro de 2020 (2020/2014(INL)) havia recomendado, nos itens 6 a 22, a adoção de um regime harmonizado de responsabilidade civil centrado na proteção da vítima, com previsão de responsabilidade objetiva para os casos de risco elevado. A proposta de diretiva representa, portanto, um passo concreto na implementação dessas recomendações, embora a negociação legislativa europeia ainda esteja em curso.

O Modelo Híbrido do Expert Group e as Perspectivas de Harmonização

O Expert Group on Liability and New Technologies, iniciativa do Diretório-Geral para Justiça e Consumidores da Comissão Europeia, propõe um modelo híbrido de responsabilidade que combina elementos objetivos e subjetivos, articulados em torno do conceito de gestão de riscos. Segundo esse modelo, a responsabilidade objetiva deve recair sobre quem administra e controla os riscos inerentes à disponibilização da IA no mercado, ao passo que a responsabilidade por danos específicos deve ser atribuída ao ator mais próximo causalmente do evento danoso.

O grupo sugere, ainda, a imposição de seguro obrigatório para operadores econômicos em situações de risco previsível e calculável, e a criação de fundos de compensação para cenários sem cobertura securitária — mecanismos que socializam os riscos tecnológicos e garantem a reparação mesmo nos casos de insolvência ou anonimato do causador do dano.

Parece-nos que essa proposta de harmonização é especialmente relevante para o Brasil, que ainda não conta com mecanismos de socialização de riscos tecnológicos comparáveis aos europeus. A criação de um fundo de compensação para danos de IA, inspirado nos modelos europeus, poderia complementar o regime de responsabilidade civil previsto no PL 2338/23 e garantir cobertura efetiva nas hipóteses em que a identificação e responsabilização individual do causador do dano se revele inviável.

A LGPD como Marco Transversal

A Lei Geral de Proteção de Dados (LGPD — Lei nº 13.709/2018) constitui marco transversal relevante para as tendências regulatórias em matéria de IA. Seu art. 42 prevê a responsabilidade do controlador ou do operador que causar dano em decorrência do tratamento de dados pessoais, com possibilidade de inversão do ônus da prova (art. 42, §2º) — em sintonia com a tendência global de facilitação probatória nos litígios envolvendo tecnologias complexas.

Além disso, a LGPD prevê, em seu art. 20, o direito do titular à revisão de decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais — o que inclui decisões produzidas por sistemas de IA. Esse direito à explicabilidade algorítmica é, a um só tempo, instrumento de transparência e ferramenta de imputação: a recusa ou impossibilidade de explicar a decisão automatizada pode configurar elemento indiciário relevante nos litígios de responsabilidade civil.

Conclusão

As tendências regulatórias globais convergem em torno de três eixos principais: a diferenciação do regime de responsabilidade conforme o nível de risco do sistema de IA; a adoção de mecanismos de facilitação probatória em favor da vítima; e a criação de instrumentos de socialização dos riscos tecnológicos, como seguros obrigatórios e fundos de compensação. O PL 2338/23 e o AI Act representam os avanços mais significativos nessa direção, embora ambos ainda careçam de regulamentação complementar para alcançar plena efetividade. No cenário brasileiro, a articulação entre o PL 2338/23, a LGPD e o CDC forma um arcabouço normativo promissor, que deverá ser consolidado e aprimorado nos anos vindouros.

Responsabilidade SubjetivaResponsabilidade ObjetivaNexo de Imputação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.