Voltar ao Blog
Teorias do RiscoCapítulo 3

As Teorias do Risco: Conceitos Fundamentais

Teorias do risco na responsabilidade civil brasileira: abuso de direito, risco da atividade (art. 927 CC), e sua aplicação a sistemas de inteligência artificial.

Alessandro Lavorante 19 de março de 2025 6 min de leitura

A adoção de regimes objetivos ou híbridos de responsabilidade civil em setores tecnologicamente poderosos busca conferir efetividade ao direito de reparação, ao mesmo tempo em que, nas esferas europeia e brasileira, se promovem princípios de segurança e estímulo à inovação. Somente assim se atingirá um equilíbrio sólido entre os valores de proteção do lesado, desenvolvimento tecnológico e segurança jurídica — destacando-se o papel do legislador em lapidar cada vez mais criteriosamente as normas aplicáveis a sistemas dotados de inteligência artificial. É nesse contexto que as teorias do risco assumem protagonismo analítico, oferecendo os fundamentos necessários para uma responsabilização que prescinde da demonstração de culpa sem, contudo, converter-se em responsabilidade absoluta ou irrestrita.

O Código Civil de 2002 trouxe inovações significativas no campo da responsabilidade civil, especialmente ao consagrar o abuso de direito como fundamento autônomo para a imputação de responsabilidade objetiva. O art. 187 do Código estabelece que aquele que, no exercício de um direito subjetivo, ultrapassar os limites estabelecidos pelo seu fim econômico ou social, pela boa-fé ou pelos bons costumes, deverá indenizar o dano causado, independentemente de culpa. Eleva-se assim o abuso de direito à categoria de cláusula geral, fundamentado na ideia de que o exercício de um direito deve respeitar limites éticos e a função social — atuando como um limite normativo contra a arbitrariedade nas relações jurídicas. Segundo Sérgio Cavalieri Filho, essa perspectiva alinha-se à doutrina de Raymond Saleilles, que definiu o abuso de direito como o exercício anormal de um direito, contrário à sua destinação econômica ou social, com o objetivo de evitar que o direito subjetivo seja desvirtuado em instrumento de opressão.

Para a inteligência artificial, o abuso de direito oferece uma base normativa interessante, ainda que subutilizada pela doutrina nacional. Considere-se o desenvolvedor que, no exercício legítimo de seu direito de explorar comercialmente um sistema de IA, escolhe deliberadamente não implementar salvaguardas técnicas de proteção de dados pessoais — porque o custo de implementação reduziria sua margem de lucro. O ato é formalmente lícito (o desenvolvimento de software não é proibido), mas o exercício do direito excede os limites impostos pela boa-fé e pela função social da atividade tecnológica, tal como definida pela Lei Geral de Proteção de Dados Pessoais (Lei 13.709/18 — LGPD) e pelos princípios de privacy by design que orientam o direito à proteção de dados. Nesse cenário, o art. 187 do Código Civil oferece fundamento autônomo para a responsabilização objetiva, independentemente da demonstração de culpa ou da aplicabilidade das normas específicas do CDC.

A segunda e mais ampla cláusula geral de responsabilidade objetiva no ordenamento jurídico brasileiro está prevista no parágrafo único do art. 927 do Código Civil: "Haverá obrigação de reparar o dano, independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, riscos para os direitos de outrem". A expressão "independentemente de culpa" consagra a responsabilidade objetiva, enquanto a menção aos "casos especificados em lei" remete às hipóteses legais expressas — como a responsabilidade do transportador (art. 734 do CC), do empregador por atos do empregado (art. 932, III, do CC) e do fornecedor pelo fato do produto (art. 12 do CDC). A cláusula residual — "quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, riscos para os direitos de outrem" — é a que mais interessa para o campo da IA, pois permite alcançar atividades não expressamente reguladas mas que, pela sua natureza intrínseca, geram riscos significativos.

Pergunta-se: o desenvolvimento e a operação de sistemas de inteligência artificial de alta autonomia configuram "atividade que, por sua natureza, implica riscos para os direitos de outrem"? A resposta afirmativa parece-nos evidente para categorias específicas de sistemas — como os utilizados em decisões automatizadas de crédito, diagnóstico médico, controle de infraestrutura crítica ou gestão de perfis comportamentais em larga escala. Nesses casos, a natureza da atividade — que envolve processamento em escala massiva, opacidade decisória e potencial de afetação de direitos fundamentais — justifica plenamente a aplicação do regime objetivo do parágrafo único do art. 927 do Código Civil, sem que seja necessário aguardar a aprovação do PL 2.338/23.

As teorias do risco que sustentam a responsabilidade objetiva no direito brasileiro podem ser sistematizadas em seis modalidades, cada uma com fundamento e escopo próprios. A teoria do risco administrativo, aplicável ao Estado e às pessoas jurídicas de direito público, funda-se no dever de indenizar os danos causados no exercício da atividade estatal, excluída apenas pelo comportamento exclusivo da vítima ou de terceiro. A teoria do risco profissional justifica a responsabilização daquele que exerce atividade profissional e causa danos aos que dela se beneficiam ou a ela se submetem — fundamento que pode alcançar médicos que utilizam sistemas de IA diagnóstica sem supervisão adequada. A teoria do risco do proveito — sintetizada na máxima ubi emolumentum ibi onus — responsabiliza quem extrai benefício econômico da atividade que gera o risco, independentemente de culpa.

A teoria do risco criado distingue-se da teoria do risco do proveito ao focar não no benefício obtido, mas na criação do risco em si: quem introduz no mundo jurídico uma fonte de perigo assume a responsabilidade pelos danos que ela causar, independentemente de qualquer proveito econômico. Essa modalidade é particularmente relevante para o campo da IA: o desenvolvedor que lança um sistema de aprendizado autônomo no mercado cria um risco — independentemente de quanto lucre com isso — e, portanto, deve responder pelos danos que esse risco causar a terceiros. A teoria do risco excepcional, por sua vez, aplica-se a atividades que, embora lícitas, são consideradas especialmente perigosas pelo ordenamento — como as que envolvem energia nuclear ou determinados produtos químicos. A extensão dessa modalidade a sistemas de IA de alto risco é defendida por parcela da doutrina, e o AI Act europeu pode ser interpretado como a positivação normativa desse entendimento na esfera comunitária.

Por fim, a teoria do risco integral — a mais rigorosa das modalidades — elimina as excludentes de responsabilidade, responsabilizando o agente mesmo diante de caso fortuito, força maior, fato de terceiro ou culpa exclusiva da vítima. No direito brasileiro, essa teoria é aplicada de modo restrito — principalmente em matéria de danos ambientais e de danos causados por atividades nucleares —, em razão de seu potencial de desestimular a atividade econômica se aplicada de modo generalizado. Para a IA, a adoção do risco integral parece excessiva como regra geral, mas pode ser adequada em setores de risco particularmente elevado, onde a tutela dos bens jurídicos em jogo justifica a eliminação de qualquer possibilidade de exoneração.

A articulação entre essas seis modalidades de risco e os sistemas de classificação por grau de risco do AI Act e do PL 2.338/23 oferece o mapa conceitual necessário para que a doutrina e a jurisprudência brasileiras construam um regime de responsabilidade civil pela IA que seja simultaneamente efetivo na proteção dos lesados, proporcional às características de cada sistema e compatível com os objetivos de fomento à inovação tecnológica responsável.

RiscoTeoriasResponsabilidade Objetiva

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.