Voltar ao Blog
Teorias do RiscoCapítulo 3

O Risco Criado e os Riscos da Atividade: Panorama Atual

Panorama atual da responsabilidade civil em IA: análise da Resolução 20/2020 do Parlamento Europeu, regimes objetivo e subjetivo, solidariedade e regresso entre operadores.

Alessandro Lavorante 4 de maio de 2025 5 min de leitura

Panorama Atual da Responsabilidade Civil nas Atividades com Inteligência Artificial

O panorama normativo contemporâneo da responsabilidade civil aplicável a sistemas de inteligência artificial é marcado por uma pluralidade de fontes em distintos estágios de maturação. No âmbito europeu, a Resolução 20/2020 do Parlamento Europeu — embora desprovida de força vinculante — constituiu um marco relevante ao delinear, de forma sistemática, os contornos de um regime de responsabilidade civil adaptado às especificidades dos sistemas de IA. No âmbito brasileiro, o PL 2338/23 representa o esforço legislativo mais abrangente até o momento, ainda pendente de aprovação, mas já exercendo influência sobre o debate doutrinário e jurisprudencial.

A Resolução 20/2020 define como sistema de alto risco todo sistema de IA que, operando de forma autônoma, seja capaz de causar danos além do esperado, considerando a gravidade dos possíveis prejuízos, o grau de autonomia decisional do sistema, a probabilidade de concretização do risco e o contexto específico de utilização (art. 3º, alínea 'c'). Essa definição funcional — que privilegia os efeitos concretos sobre a estrutura técnica do sistema — revela uma escolha metodológica deliberada: ao invés de catalogar tecnologias específicas, o legislador europeu optou por critérios de caráter finalístico e consequencialista.

Regimes de Responsabilidade: Objetivo e Subjetivo

Para os sistemas classificados como de alto risco, a Resolução atribui ao operador responsabilidade objetiva (art. 4º), tornando inadmissível a alegação de diligência ou autonomia do sistema como causa excludente. As únicas hipóteses de exclusão de responsabilidade admitidas são aquelas decorrentes de força maior — e mesmo essas, conforme a interpretação dominante, devem ser avaliadas de forma restritiva, dada a natureza potencialmente catastrófica dos danos que tais sistemas podem produzir. Adicionalmente, o art. 4º, n.º 4, impõe que os operadores de frontend mantenham seguro de responsabilidade adequado, enquanto os operadores de backend devem dispor de seguro empresarial ou de produtos, criando assim uma rede de proteção financeira que assegura a efetividade da reparação.

Para os sistemas de IA não classificados como de alto risco, a Resolução prevê a aplicação da responsabilidade subjetiva (art. 8º), admitindo a exclusão da culpa quando o operador comprove que o sistema foi ativado sem seu conhecimento, a despeito da adoção de medidas razoáveis de controle, ou que agiu com a devida diligência ao selecionar, configurar e manter o sistema em operação. Essa distinção binária entre sistemas de alto risco e os demais foi objeto de críticas por parte de especialistas que apontam a insuficiência de um modelo dicotômico para captar a gradação de riscos que a realidade tecnológica apresenta.

Regras Gerais: Contribuição da Vítima, Solidariedade e Regresso

A Resolução 20/2020 contempla ainda um conjunto de regras gerais de grande relevância prática. Quando o dano decorrer de interferência de terceiro não localizável ou desprovido de recursos suficientes para suportar a indenização, o operador permanece responsável — disposição que protege o lesado da insolvabilidade de eventuais coautores do dano. Nos casos em que a vítima tiver contribuído para a produção do prejuízo, a responsabilidade do operador é proporcionalmente reduzida (art. 10º), em aplicação do princípio da concorrência causal.

Verificou-se que a Resolução admite expressamente que ambas as partes — vítima e operador — utilizem dados gerados pelo próprio sistema de IA para comprovar fatos relevantes à instrução da causa, respeitadas as normas de proteção de dados pessoais. Essa previsão é de particular relevância em razão da assimetria informacional que caracteriza a relação entre vítimas de danos por IA e os desenvolvedores ou operadores dos sistemas: o acesso às informações técnicas sobre o funcionamento do sistema é condição indispensável para a efetividade do direito à reparação.

Havendo mais de um operador responsável pelo sistema que causou o dano, estabelece-se a responsabilidade solidária (art. 11º), o que simplifica a posição processual do lesado, que não precisa identificar precisamente qual dos operadores concorreu de forma determinante para a produção do dano. Por fim, a regra do art. 12º — que veda o exercício do direito de regresso pelo operador demandado antes da compensação integral da vítima — revela uma opção clara pelo primado da reparação em face das disputas internas entre corresponsáveis.

Interfaces com o Direito Brasileiro

A transposição desses princípios para o ordenamento jurídico brasileiro não é imediata, pois exige compatibilização com as normas do Código Civil, do Código de Defesa do Consumidor e, perspectivadamente, com o PL 2338/23. O art. 927, parágrafo único, do Código Civil oferece a base para a responsabilidade objetiva nos casos em que a atividade, por sua natureza, implique risco para os direitos de outrem — cláusula que, como se viu, pode ser interpretada de forma a alcançar sistemas de IA de alto impacto. Já o CDC, em seus arts. 12 e 14, estabelece a responsabilidade objetiva do fornecedor por defeitos de produto e de serviço, criando um microssistema protetivo que complementa o regime geral do Código Civil.

O panorama atual, portanto, caracteriza-se pela coexistência de múltiplos regimes de responsabilidade aplicáveis às atividades com inteligência artificial, sem que haja ainda um critério normativo unificado que oriente o intérprete quanto à hierarquia e à articulação dessas fontes. A construção jurisprudencial e a elaboração doutrinária têm papel central nesse processo, cabendo aos tribunais brasileiros o delicado equilíbrio entre a proteção das vítimas e a preservação de um ambiente regulatório que não inviabilize o desenvolvimento responsável das tecnologias de IA.

Risco CriadoAtividadeRisco ExcepcionalRisco Integral

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.