Voltar ao Blog
Teorias do RiscoCapítulo 3

O Risco Criado e os Riscos da Atividade: Visão Comparada

Análise comparada do risco integral no direito brasileiro e europeu, com estudo de caso sobre IA autônoma em biotecnologia e os limites da responsabilidade objetiva.

Alessandro Lavorante 18 de maio de 2025 7 min de leitura

Perspectiva Comparada: Brasil, França e União Europeia

A visão comparada das teorias do risco revela que o debate em torno dos fundamentos da responsabilidade objetiva não é exclusividade do ordenamento jurídico brasileiro. Na França, berço histórico do debate sobre responsabilidade pelo risco, a jurisprudência da Cour de Cassation consolidou, ao longo do século XX, a responsabilidade do gardien — o guardião da coisa — como regime objetivo de amplo alcance, fundado no art. 1242 do Código Civil francês (antigo art. 1384). Esse desenvolvimento jurisprudencial antecipou, em muitos aspectos, o que o legislador brasileiro viria a positivar no art. 927, parágrafo único, do Código Civil de 2002.

No plano europeu, a Diretiva 85/374/CEE sobre responsabilidade por produtos defeituosos instituiu um regime de responsabilidade objetiva do produtor, com admissibilidade restrita de excludentes — entre as quais, notavelmente, o chamado "risco de desenvolvimento", que exclui a responsabilidade quando o estado da ciência e da técnica, no momento da introdução do produto no mercado, não permitia descobrir o defeito. Essa exclusão, incorporada ao direito brasileiro pelo art. 10, inciso III, do Código de Defesa do Consumidor, será objeto de análise mais detida em capítulo próprio, mas já antecipa a tensão permanente entre proteção da vítima e liberdade de inovação.

No âmbito do risco integral, porém, a perspectiva comparada revela posições mais restritivas. A maioria dos ordenamentos europeus, incluindo a Alemanha e a Itália, reserva esse regime para atividades nucleares e, mais recentemente, para determinadas hipóteses de dano ambiental. A extensão irrestrita do risco integral a novas atividades — como as baseadas em inteligência artificial — é tratada com cautela, precisamente porque elimina as excludentes clássicas e pode gerar um efeito de responsabilização sem fronteiras que inviabiliza o cálculo atuarial dos riscos.

O Risco Integral e Seus Limites: A Questão das Excludentes

Um ponto de tensão relevante na aplicação do risco integral diz respeito às excludentes de responsabilidade. Mesmo nos regimes de responsabilidade objetiva mais rigorosos, subsiste, em geral, a possibilidade de exclusão quando não existe nexo de causalidade entre a atuação do agente e o fato danoso. Assim, um proprietário que conserve adequadamente uma área verde não deveria responder por danos causados por um raio que destrói árvores em sua propriedade — sob pena de gerar cenários ilógicos e irrazoáveis, que distorcem a própria lógica do sistema de responsabilidade civil.

Esse exemplo ilustra um limite fundamental do risco integral: ele não pode significar responsabilidade por qualquer dano que, de alguma forma remota, esteja associado à atividade do agente. O nexo causal — ainda que presumido em algumas hipóteses — é elemento estrutural da responsabilidade civil, cuja supressão total levaria à confusão entre responsabilidade e seguro obrigatório. Daí a necessidade de interpretar o risco integral de forma sistemática, identificando com precisão as hipóteses em que a exclusão do nexo causal ainda é possível mesmo nesse regime excepcional.

Inteligência Artificial e Risco Integral: Cenário Prospectivo

Em relação à inteligência artificial, parece-nos ser prematuro falar em responsabilidade integral para todos que desenvolvem e comercializam esses sistemas. Entretanto, por ser uma teoria baseada na experiência acumulada com danos causados em situações de risco extremo, não surpreenderia que certos tipos de aplicações de IA venham, no futuro, a ser submetidas ao regime mais rígido — especialmente se os danos que venham a causar revelarem um padrão de gravidade e de irreversibilidade comparável ao dos danos nucleares ou ambientais.

Para ilustrar essa possibilidade, cabe cogitar de um cenário prospectivo. Imaginemos que, nos próximos anos, laboratórios de engenharia genética passem a empregar sistemas de IA avançados — chamemos um deles de "Sistema X" — especificamente desenvolvidos para projetar, sintetizar e testar organismos geneticamente modificados de maneira autônoma. Diferentemente de sistemas baseados em algoritmos de aprendizado supervisionado para tarefas pontuais, como classificação de imagens ou otimização de processos, o Sistema X se apoiaria em aprendizado por reforço profundo (deep reinforcement learning) e em redes neurais generativas, com acesso irrestrito a bancos de dados genômicos globais, a plataformas automatizadas de cultura celular e a módulos robóticos de manipulação genética.

O diferencial técnico desse sistema seria a capacidade de autogerar hipóteses científicas e de executar, por si mesmo ou com pouquíssima supervisão humana, experimentos em altíssima velocidade: conceberia novas sequências de DNA, sintetizaria esses trechos por meio de impressoras biológicas e testaria os resultados em microambientes controlados.

A natureza do risco extraordinário nesse cenário é imediatamente perceptível. O Sistema X não se limitaria a rodar simulações: atuaria fisicamente na engenharia de organismos celulares. Uma falha de programação ou um desvio nas estratégias de aprendizado poderiam originar bactérias multirresistentes ou vírus modificados de rápida disseminação — ameaçando não apenas as pessoas envolvidas no laboratório, mas potencialmente toda a sociedade. O potencial de dano seria tão colossal que a simples opção por lançar tal sistema no mercado de biotecnologia justificaria, em tese, a aplicação do regime de risco integral.

O AI Act e os Novos Marcos Regulatórios

A experiência europeia com o AI Act (Regulamento UE 2024/1689) oferece elementos comparativos valiosos para pensar a calibragem do regime de responsabilidade. O Regulamento classifica os sistemas de IA em quatro categorias — risco inaceitável, alto risco, risco limitado e risco mínimo —, e impõe obrigações proporcionalmente mais severas para as categorias de maior risco. Sistemas de IA de "risco inaceitável" são simplesmente proibidos; sistemas de "alto risco" estão sujeitos a avaliações de conformidade, registro em bases de dados europeias, supervisão humana obrigatória e requisitos de transparência.

Essa gradação regulatória tem implicações diretas para o regime de responsabilidade civil. Se um sistema de IA foi submetido a todos os requisitos de conformidade previstos no AI Act e mesmo assim causou um dano, a questão que se coloca é se a responsabilidade do fornecedor deve ser objetiva ou subjetiva. A resposta europeia, ainda em formação por meio da proposta de Diretiva de responsabilidade por IA (AI Liability Directive), sinaliza para a presunção de nexo causal e inversão do ônus da prova em favor da vítima — mecanismo que, sem chegar ao risco integral, aproxima-se substancialmente da responsabilidade objetiva.

No Brasil, o PL 2.338/23 percorre caminho similar, ao estabelecer responsabilidade objetiva para sistemas de alto risco e prever mecanismos de supervisão e prestação de contas que, em caso de descumprimento, reforçam a imputabilidade dos agentes. Verifica-se, assim, uma convergência entre os modelos brasileiro e europeu — convergência que, cabe ressaltar, não é fortuita, mas reflete a influência crescente do direito europeu sobre as iniciativas legislativas nacionais em matéria de tecnologia e responsabilidade civil.

Síntese Crítica

A visão comparada das teorias do risco — especialmente do risco integral — revela que sua aplicação à inteligência artificial exige discernimento. Não se trata de aplicar mecanicamente um regime desenvolvido para atividades nucleares a qualquer sistema algorítmico. Trata-se, antes, de identificar com precisão quais características de determinados sistemas de IA — autonomia elevada, capacidade de causar danos em escala, opacidade dos processos decisórios, irreversibilidade dos efeitos — justificam o enquadramento no regime mais rigoroso de responsabilidade.

Essa identificação é tarefa que cabe, primariamente, ao legislador — mas que o intérprete não pode furtar-se de realizar diante da inevitable defasagem entre a velocidade da inovação tecnológica e o ritmo da produção normativa. As teorias do risco, nesse sentido, funcionam como uma gramática jurídica que permite ao aplicador do direito dar respostas razoáveis a problemas novos, sem aguardar a edição de lei específica para cada nova tecnologia — o que, no mundo atual, seria simplesmente inviável.

Risco CriadoAtividadeRisco ExcepcionalRisco Integral

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.