Nessa mesma linha de raciocínio, Cavalieri Filho reforça que a reparação é devida sempre que o dano decorre de um risco que escapa às condições ordinárias da vítima, como ocorre no manuseio de energia nuclear ou de materiais radioativos. Por exporem a coletividade a riscos excepcionais, essas atividades impõem aos seus exploradores o dever de indenizar, prescindindo de qualquer verificação de culpa532. No entanto, as críticas ao risco excepcional sugerem que a abordagem apresenta limitações práticas, tendo em vista que os conceitos de “normal” e “anormal” permanecem vagos, deixando o intérprete sem critérios claros para fundamentar suas análises533. Como bem pontua Agostinho Alvim, “recorrer ao critério da “normalidade equivale a deslizar para o terreno do ilícito, do abuso do direito: atividade irregular, que causa dano a terceiro. Estaremos, então, no campo da culpa, porque a anormalidade do procedimento é uma forma de culpa”534. Apesar dessas dificuldades conceituais – e embora a teoria do risco excepcional tenha sido historicamente desenvolvida tendo em vista atividades “tradicionalmente” perigosas –, ela apresenta um arcabouço conceitual que, aparentemente, pode ser aplicado à inteligência artificial. Certas aplicações de IA, especialmente aquelas que envolvem algoritmos altamente autônomos em áreas sensíveis (tais como diagnóstico médico, segurança pública ou controle de infraestrutura crítica), podem gerar riscos que transcendem a esfera comum de previsibilidade. Nesse sentido, atividades envolvendo IA de alto impacto podem ser equiparadas a situações de risco excepcional, tendo em vista o potencial de danos graves e disseminados decorrentes de falhas ou decisões equivocadas de tais sistemas. Como vimos acima, o PL 2338/23 estabelece responsabilidade objetiva específica para fornecedores ou operadores de sistemas de IA classificados como de “alto risco” ou “risco excessivo” (art. 27, caput e §1º), além de prever a adoção de medidas adicionais de governança para esses casos – documentação, registro, testes de confiabilidade, mitigação de vieses e supervisão humana (art. 20), além de consultas e audiências públicas, protocolos de aces532 Cavalieri Filho, 2023, p. 209. 533 Queiroz, 2024, p. 2.1. 534 Alvim, Agostinho. Da Inexecução das Obrigações e suas Consequências. 5. ed. São Paulo: Saraiva, 1980, p. 308.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".