Risco Criado: Fundamento e Delimitação
Entre as diversas subespécies das teorias do risco, o risco criado ocupa posição central no debate doutrinário contemporâneo. Seu pressuposto fundamental é simples, mas de grande alcance: quem, por sua atividade, cria uma situação de risco para terceiros, deve responder pelos danos dela decorrentes, independentemente de culpa e de proveito econômico. Diferencia-se, assim, do risco proveito — que exige a obtenção de benefício pelo agente —, ao prescindir de qualquer vantagem direta como condição para a imputação objetiva.
No ordenamento jurídico brasileiro, essa formulação encontra assento na cláusula geral do art. 927, parágrafo único, do Código Civil de 2002, que impõe a obrigação de reparar o dano, independentemente de culpa, quando a atividade normalmente desenvolvida pelo autor implicar, por sua natureza, risco para os direitos de outrem. A amplitude da norma é deliberada: ao falar em "natureza" da atividade, o legislador sinalizou que o risco deve ser inerente ao exercício habitual da conduta, e não meramente eventual ou acidental.
Cabe ressaltar que a teoria do risco criado não importa responsabilidade absoluta. As excludentes clássicas — caso fortuito externo, força maior e culpa exclusiva da vítima — continuam aptas a afastar o nexo de causalidade e, consequentemente, a obrigação de indenizar. Essa nuance é fundamental para compreender a diferença entre o risco criado e o risco integral, este último caracterizado justamente pela impossibilidade de invocação de tais excludentes.
Risco Excepcional: Critérios e Dificuldades Conceituais
Ao lado do risco criado, a teoria do risco excepcional apresenta especificidade própria: reserva a responsabilidade objetiva para atividades que, por sua natureza, expõem a coletividade a riscos anormalmente elevados, que transcendem o padrão habitual de previsibilidade. Cavalieri Filho reforça que a reparação é devida sempre que o dano decorre de um risco que escapa às condições ordinárias a que a vítima está habitualmente submetida — como ocorre, por excelência, no manuseio de energia nuclear ou de materiais radioativos.
No entanto, as críticas ao risco excepcional apontam para uma limitação epistemológica relevante: os conceitos de "normal" e "anormal" permanecem vagos, deixando o intérprete sem critérios suficientemente claros para fundamentar suas análises. Como bem pontua Agostinho Alvim, recorrer ao critério da normalidade equivale, em certa medida, a deslizar para o terreno do ilícito e do abuso do direito — pois a anormalidade do procedimento seria, ela mesma, uma forma de culpa. O argumento tem consistência lógica: se o que torna o risco "excepcional" é precisamente o desvio de um padrão de conduta razoável, estaríamos, no fundo, diante de uma responsabilidade subjetiva disfarçada de objetiva.
Essa objeção, porém, não invalida a utilidade prática da teoria. A distinção entre risco normal e risco excepcional não precisa apoiar-se exclusivamente em critérios subjetivos de conduta: pode fundar-se em dados objetivos, como a natureza da substância manipulada, a extensão dos danos potenciais, o grau de autonomia dos sistemas empregados e a vulnerabilidade das pessoas expostas. É com base nessa objetividade que a legislação especial brasileira e europeia tem calibrado seus regimes de responsabilidade.
O Risco Integral: Aplicação Restrita e Fundamentação
A teoria do risco integral representa o ponto mais extremo do espectro: o dever de indenizar subsiste ainda diante de eventos de força maior, caso fortuito ou culpa exclusiva da vítima. Por essa razão, sua aplicação no Brasil é excepcionalmente restrita, reservada a hipóteses em que a gravidade dos danos potenciais e a especial vulnerabilidade das vítimas justificam uma proteção máxima. O dano ambiental — regido pelo art. 14, § 1º, da Lei 6.938/81 — e o dano nuclear — disciplinado pela Lei 6.453/77 — são os exemplos consagrados na doutrina e na jurisprudência.
A justificativa para esse regime excepcional é, em essência, de ordem política e social: determinadas atividades apresentam potencial de dano tão elevado e tão difícil de ser atribuído causalmente a um único agente que a única forma de garantir reparação adequada às vítimas é eliminar as possibilidades de exclusão de responsabilidade. Trata-se de escolha legislativa consciente, que prioriza a proteção da vítima sobre a liberdade de atuação do agente — escolha que, evidentemente, deve ser feita com parcimônia para não inviabilizar atividades socialmente necessárias.
Inteligência Artificial e Risco Excepcional: Perspectivas
Apesar das dificuldades conceituais que cercam o risco excepcional, verifica-se que o arcabouço teórico por ele oferecido apresenta potencial aplicabilidade à inteligência artificial. Certas aplicações de IA — especialmente aquelas que envolvem algoritmos altamente autônomos em áreas sensíveis, como diagnóstico médico, segurança pública, concessão de crédito ou controle de infraestrutura crítica — podem gerar riscos que transcendem a esfera comum de previsibilidade. O potencial de danos graves e disseminados, decorrentes de falhas ou decisões equivocadas de tais sistemas, aproxima essas aplicações das situações historicamente qualificadas como de risco excepcional.
Nessa perspectiva, o Projeto de Lei 2.338/23, em tramitação no Senado Federal, estabelece responsabilidade objetiva específica para fornecedores e operadores de sistemas de IA classificados como de "alto risco" ou "risco excessivo" (art. 27, caput e § 1º). Além disso, o PL prevê a adoção de medidas adicionais de governança para esses casos — documentação, registro, testes de confiabilidade, mitigação de vieses e supervisão humana (art. 20) —, bem como a realização de consultas e audiências públicas, protocolos de acesso e prestação de contas. Trata-se, portanto, de uma regulação que combina a responsabilidade objetiva com exigências procedimentais destinadas a reduzir ex ante a probabilidade de danos.
No plano europeu, o AI Act (Regulamento UE 2024/1689) adota classificação similar, identificando sistemas de IA de alto risco em áreas como infraestrutura crítica, educação, emprego, serviços essenciais, aplicação da lei e administração da justiça. Para esses sistemas, são impostas obrigações específicas de avaliação de conformidade, transparência, robustez técnica e supervisão humana — obrigações que, no plano da responsabilidade civil, reforçam a imputabilidade dos fornecedores em caso de dano.
Cabe ressaltar que a analogia entre IA de alto impacto e risco excepcional não é isenta de críticas. Uma delas é que a categoria de "risco excepcional" foi historicamente desenvolvida para atividades com riscos físicos bem identificáveis — radiações, explosões, contaminações —, ao passo que os danos causados por sistemas de IA frequentemente têm natureza difusa, patrimonial ou mesmo existencial, tornando mais difícil a delimitação do nexo causal. Outra crítica aponta que a imposição de responsabilidade objetiva integral para sistemas de IA poderia desincentivar a inovação, especialmente em países como o Brasil, cujo ecossistema tecnológico ainda está em fase de consolidação.
Síntese: A Necessidade de Calibragem Normativa
O exame das dimensões contemporâneas do risco criado e dos riscos da atividade revela que as teorias clássicas oferecem substrato teórico relevante para enfrentar os desafios impostos pela inteligência artificial, mas não podem ser transplantadas sem adaptações. A transição de sistemas industriais tradicionais para sistemas digitais autônomos exige uma releitura das categorias de risco, com atenção às particularidades da autonomia algorítmica, da opacidade dos sistemas de aprendizado de máquina e da multiplicidade de agentes envolvidos na cadeia de desenvolvimento e de implantação.
O que parece estar em formação — tanto no direito brasileiro quanto no europeu — é um modelo híbrido: responsabilidade objetiva para sistemas de alto risco, combinada com presunções de defeito e inversão do ônus da prova para sistemas de risco intermediário, e manutenção da responsabilidade subjetiva para sistemas de baixo impacto. Essa estrutura em camadas procura conciliar proteção efetiva das vítimas com previsibilidade jurídica para os agentes inovadores — e é nesse equilíbrio delicado que reside o verdadeiro desafio do direito da responsabilidade civil no século XXI.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".