Introdução
O fenômeno da inteligência artificial coloca em xeque os fundamentos clássicos da responsabilidade civil, especialmente no que tange à identificação do nexo de imputação adequado para os danos que tais sistemas produzem. A visão comparada revela que diferentes ordenamentos respondem a esse desafio com estratégias normativas distintas, embora convergentes em certos pontos essenciais: a proteção efetiva da vítima, a alocação de responsabilidade junto a quem controla os riscos e a necessidade de superar o dogma da culpa nas hipóteses de maior complexidade tecnológica.
No Brasil, essa discussão ganhou contornos mais nítidos com a tramitação do Projeto de Lei nº 2.338, de 2023 (PL 2338/23), que dispõe sobre o uso da inteligência artificial e prevê regimes diferenciados de responsabilidade. Na União Europeia, o AI Act (Regulamento UE 2024/1689) e a Proposta de Diretiva sobre Responsabilidade Civil da IA (COM/2022/496 final) representam os avanços mais significativos do cenário regulatório global.
O Regime Brasileiro: PL 2338/23 e os Critérios de Imputação
A redação atual do PL 2338/23 apresenta dois sistemas principais de responsabilização dos fornecedores ou operadores de sistemas de IA. O primeiro, de caráter objetivo, aplica-se aos sistemas classificados como de alto risco ou risco excessivo, nos termos do art. 27, §1º, e prevê a divisão proporcional da responsabilidade conforme a participação de cada agente no dano. O segundo, de presunção de culpa com inversão do ônus da prova em favor da vítima (art. 27, §2º), incide sobre os demais casos — preservando a influência do CDC, notadamente em relações de consumo, conforme a referência ao art. 28 do projeto.
Essa estrutura dual reflete a tensão, presente em todo o debate regulatório sobre IA, entre a necessidade de proteger as vítimas e o risco de desestimular a inovação tecnológica por meio de regimes excessivamente onerosos para os desenvolvedores. Parece-nos que o PL 2338/23 busca um equilíbrio razoável, ao reservar a responsabilidade objetiva plena para as hipóteses de maior potencial lesivo, enquanto mantém a presunção de culpa para os demais casos — o que, na prática, assegura à vítima uma proteção reforçada sem eliminar completamente a possibilidade de o agente afastar sua responsabilidade mediante prova de diligência.
O regime consumerista já consolidado pelo CDC aplica-se, em paralelo, às relações de consumo envolvendo sistemas de IA, sendo certo que o art. 14 do CDC impõe responsabilidade objetiva do fornecedor de serviços independentemente de culpa — base normativa que, por si só, já garantiria proteção considerável ao consumidor lesado por sistemas de IA defeituosos ou inseguros.
O AI Act Europeu e a Gestão de Riscos
Na União Europeia, o AI Act, embora não trate diretamente de responsabilidade civil, aproxima-se do tema ao prever, em seu art. 9º, a obrigação dos provedores de sistemas de IA de alto risco de manterem um sistema contínuo de gestão de riscos, que abrange a identificação, análise e mitigação de possíveis danos. Trata-se de uma abordagem regulatória de caráter preventivo, que condiciona a colocação do produto no mercado ao cumprimento de requisitos técnicos e documentais rigorosos.
Verificou-se que o AI Act categoriza os sistemas de IA em quatro níveis de risco — inaceitável, alto, limitado e mínimo —, atribuindo a cada categoria obrigações proporcionais. Essa estratificação regulatória é relevante para o nexo de imputação porque o descumprimento das obrigações previstas para os sistemas de alto risco pode funcionar, nos litígios civis, como indício de ilicitude ou de negligência, facilitando a prova da culpa ou a configuração de presunções em desfavor do fornecedor.
A Resolução do Parlamento Europeu de 20 de outubro de 2020 (2020/2014(INL)) recomendou a adoção de um regime harmonizado de responsabilidade civil centrado na proteção da vítima, com previsão de responsabilidade objetiva para os casos de risco elevado. Essa recomendação orientou, em grande medida, a elaboração subsequente das propostas de diretiva, revelando a coerência da estratégia europeia de vincular responsabilidade civil e regulação de riscos em um sistema integrado.
A Proposta de Diretiva Europeia sobre Responsabilidade Civil da IA
A Proposta de Diretiva sobre Responsabilidade Civil da IA (COM/2022/496 final) introduz, entre outros mecanismos, disposições relativas à mitigação do ônus probatório das vítimas. O art. 4º da proposta prevê a possibilidade de o juiz determinar a produção de provas por parte do demandado em situações nas quais a vítima, pelas particularidades técnicas da IA, não disponha dos meios necessários para comprovar o dano sofrido.
Trata-se de mecanismo de especial importância prática, uma vez que a opacidade dos sistemas de IA — frequentemente referida pela doutrina como o problema da "caixa-preta" (black box) — torna extremamente difícil, para o lesado, demonstrar a relação entre o funcionamento do sistema e o dano experimentado. A inversão ou mitigação do ônus da prova, nesse contexto, funciona como compensação jurídica à assimetria informacional estrutural que caracteriza esses litígios.
Parece-nos que essa abordagem é consonante com a tradição do CDC brasileiro, que já prevê a inversão do ônus da prova em favor do consumidor (art. 6º, VIII), e com a própria LGPD, que admite distribuição semelhante nas demandas por danos decorrentes do tratamento de dados pessoais (art. 42, §2º).
Modelos Híbridos e o Expert Group on Liability and New Technologies
No plano doutrinário europeu, o Expert Group on Liability and New Technologies propõe um modelo híbrido que combina responsabilidade objetiva e gestão de riscos. Segundo esse modelo, a responsabilidade objetiva deve recair sobre quem administra e controla os riscos inerentes à disponibilização da IA no mercado, ao passo que a responsabilidade por gestão de riscos deve ser atribuída ao ator mais próximo causalmente do evento danoso, a depender do tipo de mau funcionamento verificado.
Como medidas complementares, o grupo propõe a imposição de seguro obrigatório para operadores econômicos em situações previsíveis e calculáveis, e a criação de fundos de compensação para cenários sem seguro obrigatório — garantindo, assim, a reparação em casos de difícil cobertura. Essa última proposta dialoga com modelos já existentes no Brasil, como o Fundo de Garantia de Acidentes de Trânsito, e revela que a socialização dos riscos tecnológicos pode ser alcançada por múltiplos instrumentos jurídicos.
A Responsabilidade Indireta como Base Teórica Comum
Em diversas jurisdições, os estudiosos encontraram nas formas de responsabilidade indireta as bases teóricas para tratar da imputação dos danos ocasionados por sistemas de IA — principalmente no que diz respeito às tecnologias de machine learning que, com avançada capacidade de autoaprendizado, escapam ao controle direto dos seus desenvolvedores e passam a operar sob a influência de dados fornecidos por usuários de todo tipo.
A responsabilidade do empregador pelo ato do empregado (arts. 932, III, e 933 do CC) e a responsabilidade do fornecedor pelo produto defeituoso (art. 12 do CDC) fornecem, cada uma à sua maneira, um arcabouço para imputar responsabilidades a agentes que, embora não tenham causado diretamente o dano, encontravam-se em posição de controle ou supervisão do agente causador. Essa lógica translada-se, com os devidos ajustes, para o desenvolvedor de sistemas de IA que coloca no mercado tecnologias com elevado potencial lesivo.
Conclusão
A visão comparada evidencia que, apesar das diferenças normativas entre os sistemas brasileiro, europeu e norte-americano, há uma convergência em torno de três eixos fundamentais: a necessidade de superar o dogma da culpa para os sistemas de IA de alto risco, a importância de mecanismos de facilitação probatória em favor da vítima e a relevância da responsabilidade indireta como instrumento de imputação. O PL 2338/23 e o AI Act, cada um a seu modo, refletem essa convergência e sinalizam que o futuro da responsabilidade civil por danos de IA reside em regimes híbridos, que combinam objetividade, presunções e gestão preventiva de riscos.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".