Voltar ao Blog
Teorias do RiscoCapítulo 3

O Risco Criado e os Riscos da Atividade: Questões Emergentes

Questões emergentes sobre risco excepcional e risco integral em sistemas de IA: convergência entre PL 2338/23, AI Act e o Código Civil ante danos de alta autonomia tecnológica.

Alessandro Lavorante 11 de maio de 2025 5 min de leitura

Questões Emergentes: Risco Excepcional, Risco Integral e Inteligência Artificial

O debate sobre as teorias do risco aplicadas à inteligência artificial não se esgota na distinção entre responsabilidade objetiva e subjetiva. Questões emergentes — relativas à extensão das excludentes de responsabilidade, à convergência regulatória internacional e à necessidade de tratamento diferenciado para sistemas de alta autonomia — projetam novos desafios interpretativos que a doutrina e a jurisprudência ainda começam a enfrentar de forma sistemática.

O PL 2338/23, em seus arts. 20 a 23, estrutura um conjunto de obrigações de governança diretamente vinculadas ao conceito de risco excepcional, ainda que sem empregá-lo expressamente: a exigência de supervisão humana das decisões, a realização de avaliações preliminares de impacto quando os sistemas são utilizados pelo poder público (art. 21) e a obrigatoriedade de avaliação de impacto algorítmico para sistemas de alto risco (art. 22) revelam que o legislador reconhece que certas aplicações tecnológicas podem acarretar danos graves e fora da normalidade. Esse reconhecimento é o ponto de partida normativo para um regime mais rigoroso de responsabilidade, que dispensa a demonstração de culpa.

A Convergência entre PL 2338/23 e AI Act

Embora o PL 2338/23 não utilize explicitamente a expressão "risco excepcional", operacionaliza esse conceito ao distinguir atividades potencialmente perigosas em razão de sua autonomia e impacto social, atribuindo-lhes obrigações específicas de governança e um regime agravado de reparação de danos. Essa abordagem se alinha ao cerne da teoria do risco excepcional: a excepcionalidade do perigo — e não a culpa do agente — é o fundamento da obrigação de indenizar.

Por sua vez, os dispositivos do AI Act europeu, embora não tratem diretamente da responsabilidade civil — matéria reservada à Diretiva de Responsabilidade em IA, aprovada separadamente —, abrem caminho para que os legisladores europeus e os intérpretes nacionais adotem lógicas regulatórias que se aproximam da teoria do risco excepcional. Observa-se, assim, uma convergência normativa relevante: tanto o AI Act quanto o projeto brasileiro partem da ideia de que, diante de riscos anormais ou extraordinários — sejam eles referentes a redes elétricas de alta tensão, a materiais nucleares ou a sistemas de IA de alto risco —, a proteção da coletividade deve prevalecer sobre considerações de ordem exclusivamente econômica ou tecnológica.

A lógica subjacente é que o simples exercício de uma atividade altamente perigosa justifica o ônus de indenizar, sem necessidade de demonstrar falha específica na conduta do agente. Essa premissa, que a teoria do risco excepcional compartilha com a teoria do risco criado, é reforçada, no contexto da IA, pela opacidade dos sistemas de machine learning e pela dificuldade estrutural de provar, em juízo, a relação causal entre o funcionamento do sistema e o dano produzido.

A Teoria do Risco Integral como Patamar Extremo

Entretanto, em que pese a teoria do risco excepcional intensificar a objetivação da responsabilidade em face de atividades perigosas, ainda se admitem, nessa ótica, certas excludentes de nexo causal ou mesmo hipóteses de responsabilidade subjetiva. Surge, então, a necessidade de avaliar uma hipótese mais extrema: a da teoria do risco integral, que configura o patamar máximo de responsabilidade objetiva ao praticamente suprimir as excludentes clássicas de causalidade.

Pelo risco integral, o nexo entre conduta e dano é mitigado de tal forma que a simples vinculação à atividade de risco já geraria o dever de reparação. Não se aplicam, nesse contexto, os fatos excludentes de ilicitude previstos no art. 188 do Código Civil — legítima defesa, estado de necessidade, remoção de perigo iminente ou exercício regular de direito. Igualmente afastadas são as excludentes de nexo de causalidade, como o fato exclusivo da vítima, o fato exclusivo de terceiro, e o caso fortuito — seja ele de natureza interna ou externa —, bem como a força maior.

Situações como o transporte de petróleo em alto mar e a operação de usinas nucleares exemplificam a aplicação prática do risco integral no direito brasileiro. A questão que se coloca para o direito contemporâneo é se, e em que circunstâncias, sistemas de inteligência artificial de altíssimo risco — como aqueles utilizados de forma autônoma em cirurgias robóticas, na administração da justiça criminal ou no controle de infraestruturas críticas — poderiam ser enquadrados nesse patamar extremo.

Questionamentos Emergentes para a Doutrina e a Jurisprudência

Parece-nos que a extensão do regime do risco integral à inteligência artificial é, atualmente, a questão mais controversa e de maior relevância prática no campo da responsabilidade civil tecnológica. Os argumentos favoráveis assentam-se na magnitude dos danos potenciais, na irreversibilidade de certas decisões automatizadas e na assimetria informacional que impede as vítimas de produzir prova adequada sobre o funcionamento interno dos sistemas. Os argumentos contrários apontam para o risco de se criar um regime de responsabilidade tão severo que inviabilize economicamente o desenvolvimento de tecnologias que, em última análise, apresentam benefícios líquidos para a sociedade.

Verificou-se que a doutrina e a jurisprudência brasileiras ainda não produziram respostas definitivas a essas questões. O PL 2338/23, em sua versão atual, não alcança o regime do risco integral: as excludentes previstas no art. 28 — fato exclusivo da vítima e fato exclusivo de terceiro — permanecem como causas de afastamento da responsabilidade mesmo nos casos de sistemas de alto risco. Essa opção legislativa, conquanto conservadora, reflete uma preocupação legítima com o equilíbrio entre proteção das vítimas e sustentabilidade do desenvolvimento tecnológico.

A compreensão das questões emergentes no campo das teorias do risco aplicadas à IA é, portanto, condição indispensável para que o operador do direito possa navegar com segurança por um campo normativo em formação, onde as escolhas interpretativas têm consequências diretas tanto para a efetividade da proteção dos lesados quanto para o futuro do desenvolvimento tecnológico no Brasil.

Risco CriadoAtividadeRisco ExcepcionalRisco Integral

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.