Voltar ao Blog
Teorias do RiscoCapítulo 3

O Risco Criado e os Riscos da Atividade: Reflexões e Propostas

Reflexões e propostas sobre a teoria do risco criado, risco excepcional e risco integral aplicados à inteligência artificial à luz do Código Civil e da doutrina contemporânea.

Alessandro Lavorante 6 de maio de 2025 5 min de leitura

Reflexões e Propostas sobre os Riscos da Atividade e a Inteligência Artificial

A análise das teorias do risco aplicadas à inteligência artificial impõe que o intérprete supere a mera subsunção de categorias doutrinárias consolidadas a realidades técnicas inéditas. A teoria do risco criado, em sua formulação originária, já oferece uma matriz de justiça distributiva relevante: quem cria o risco deve suportar os custos dos danos que dele advêm. Contudo, verifica-se que a aplicação desta teoria a sistemas de IA exige qualificações específicas, sob pena de se produzir resultados normativos tanto insuficientes quanto excessivos.

O art. 927, parágrafo único, do Código Civil de 2002, ao consagrar uma cláusula aberta de responsabilidade objetiva por atividade de risco, oferece ao intérprete a vantagem de abarcar novas modalidades de perigo ainda não tipificadas pelo legislador. Essa plasticidade normativa é particularmente valiosa em um campo tão dinâmico como o da inteligência artificial, onde a velocidade do desenvolvimento tecnológico supera, frequentemente, a capacidade de resposta do processo legislativo. Todavia, uma aplicação indiscriminada da responsabilidade objetiva pode gerar o que a doutrina denomina "risco do risco da atividade": ao impor ônus excessivos ao desenvolvimento de novas tecnologias, o direito pode, paradoxalmente, desincentivar atividades socialmente benéficas.

A Teoria do Risco Excepcional

Em razão da imprevisibilidade estrutural do deep learning e do elevado potencial de dano que certos sistemas de IA apresentam, parte relevante da doutrina advoga pela aplicação do regime de atividades perigosas apenas a soluções efetivamente dotadas de risco maior. A tese se fortalece diante do aumento de riscos "inéditos" — aqueles capazes de afetar a coletividade em escala e de forma irreversível —, que legitimam uma abordagem mais rigorosa em relação à imputação de responsabilidade.

A teoria do risco excepcional — também denominada teoria do risco anormal, exacerbado ou grave — surge, nesse contexto, como uma resposta mais calibrada às insuficiências da teoria do risco criado em sua versão "pura". Propõe que apenas os riscos considerados anormais, que superam significativamente o patamar de periculosidade tolerado pela vida social, seriam suficientes para justificar a aplicação do regime de responsabilidade objetiva. Concentra-se, portanto, precisamente nas situações em que atividades incomuns, dotadas de um elevado grau de perigo, geram danos à coletividade — impondo o dever de reparação independentemente da prova de culpa.

Segundo Bruno Miragem, tais atividades são exemplificadas pelas redes elétricas de alta tensão e pelas operações nucleares, cujos riscos inerentes fundamentam a responsabilidade objetiva, conforme disposto no art. 21, XXIII, alínea 'd', da Constituição Federal. A questão que se coloca para o direito contemporâneo é se os sistemas de inteligência artificial de alto risco — aqueles que operam de forma autônoma em domínios sensíveis como a saúde, a administração da justiça e o controle de fronteiras — atingem o patamar de excepcionalidade que a teoria pressupõe.

Parece-nos que a resposta deve ser matizada. Nem todo sistema de IA apresenta risco excepcional: um sistema de recomendação de conteúdo, embora possa produzir danos psicológicos difusos, não se equipara, em termos de periculosidade, a um sistema autônomo de tomada de decisão médica ou a um veículo de condução autônoma. A diferenciação, portanto, deve operar no caso concreto, com atenção ao grau de autonomia do sistema, à irreversibilidade dos danos potenciais, à escala de uso e à possibilidade de supervisão humana efetiva.

Risco Excepcional e Sistemas de IA no PL 2338/23

O PL 2338/23, embora não utilize expressamente a terminologia da teoria do risco excepcional, operacionaliza esse conceito ao distinguir atividades potencialmente perigosas em razão de sua autonomia e impacto social, atribuindo-lhes obrigações específicas de governança e um regime mais severo de reparação de danos. Os sistemas classificados como de alto risco nos termos do art. 17 sujeitam-se a deveres de documentação, rastreabilidade e supervisão humana (art. 20), além de mecanismos de avaliação de impacto algorítmico (arts. 22 e 23), o que se alinha ao cerne da teoria: a excepcionalidade do risco justifica a imposição de obrigações excepcionais.

Além disso, o AI Act europeu, ao estabelecer proibições absolutas para certas práticas (art. 5º) e impor requisitos rigorosos para sistemas de risco elevado (Capítulo III), convergiu normativamente com a lógica da teoria do risco excepcional. A premissa compartilhada é que, diante de riscos anormais ou extraordinários — sejam eles referentes a redes elétricas de alta tensão, a materiais nucleares ou a sistemas de IA de alto risco —, a proteção da coletividade deve prevalecer sobre a livre iniciativa tecnológica.

A Necessidade de Caracterização do Risco em Cada Atividade

De maneira geral, embora a teoria do risco criado em sua aplicação "pura" já ofereça uma matriz de justiça distributiva adequada para muitos casos, a doutrina e a jurisprudência alertam para a necessidade de caracterizar o risco em cada atividade concreta, não bastando a mera existência de perigo comum ou ordinário para deflagrar o regime objetivo. Essa exigência de qualificação do risco é tanto uma garantia para os agentes econômicos — que não devem ser onerados por responsabilidade objetiva em face de riscos ordinários inerentes a qualquer atividade produtiva — quanto uma proteção para a coletividade, que merece tutela diferenciada quando exposta a perigos que excedem o tolerável.

As reflexões aqui desenvolvidas sugerem que o direito brasileiro necessita, com urgência, de critérios normativos mais precisos para a qualificação dos riscos associados à inteligência artificial, de modo a superar a insegurança jurídica decorrente da aplicação casuística da cláusula geral do art. 927, parágrafo único. A aprovação do PL 2338/23, nesse sentido, representaria um avanço significativo, desde que acompanhada de regulamentação complementar que defina parâmetros técnicos e jurídicos para a identificação dos sistemas de alto risco e para a distribuição dos ônus probatórios nos processos de responsabilidade civil.

Risco CriadoAtividadeRisco ExcepcionalRisco Integral

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.