Introdução
As aplicações e implicações da teoria do risco criado e dos riscos da atividade constituem o ponto de chegada de toda a construção dogmática examinada até aqui. Verificou-se, ao longo deste estudo, que a teoria não se limita a oferecer um fundamento abstrato para a responsabilidade objetiva: ela impõe consequências práticas concretas sobre a identificação dos responsáveis, a extensão do dano indenizável, as excludentes admissíveis e, sobretudo, sobre a interação com os marcos regulatórios emergentes no campo da inteligência artificial. É nessa dimensão aplicada que a teoria demonstra plenamente sua utilidade e seus limites.
Risco Criado como Fundamento da Responsabilidade por IA de Alto Risco
A teoria do risco criado relaciona-se, em sua essência, ao risco inerente à própria natureza da atividade, exigindo potencialidade de danos efetivos — não meramente hipotéticos ou abstratos. Essa exigência é central para compreender sua aplicação à inteligência artificial: nem todo sistema de IA cria riscos juridicamente relevantes para fins de responsabilidade objetiva; apenas aqueles cujas características intrínsecas — autonomia, opacidade, capacidade de processamento massivo de dados, impacto sobre direitos fundamentais — elevam o risco a um nível acima do tolerável.
O PL 2.338/2023 guarda clara afinidade com a lógica da teoria do risco da atividade, ao impor responsabilidade objetiva para sistemas de IA classificados como de "alto risco" ou "risco excessivo". O projeto proíbe definitivamente a implementação e o uso dos sistemas de "risco excessivo" — especificamente aqueles que utilizem técnicas subliminares para induzir comportamentos prejudiciais, que explorem vulnerabilidades de grupos específicos ou que sirvam ao ranqueamento social ilegítimo (art. 14, incisos I a III). Essa proibição absoluta é coerente com a lógica do risco excepcional: há situações em que o risco criado é tão elevado que nenhuma consideração de eficiência ou de benefício pode justificar sua manutenção.
O Rol de Sistemas de "Alto Risco" no PL 2.338/2023
O PL 2.338/2023 inclui um rol de sistemas de "alto risco" — em linhas gerais, aqueles utilizados em infraestrutura crítica, educação, recursos humanos, serviços essenciais, cumprimento da lei, administração da justiça e processos democráticos. Para esses sistemas, o projeto impõe obrigações específicas de transparência, auditabilidade, controle humano e prestação de contas — obrigações que, em conjunto, constituem o padrão de segurança legitimamente exigido para atividades de alto risco tecnológico.
A identificação biométrica à distância em espaços de acesso público é especialmente restringida: é admitida apenas com lei federal específica e autorização judicial, para busca de vítimas de crimes, pessoas desaparecidas ou suspeitos de crimes graves e prisão em flagrante, assegurando devido processo, controle judicial e revisão humana (art. 15, caput, incisos I a III, e parágrafo único). Essa restrição reflete, no plano positivo, a aplicação da teoria do risco excepcional: a tecnologia de identificação biométrica em espaços públicos cria riscos tão significativos para direitos fundamentais — privacidade, liberdade de locomoção, não discriminação — que sua utilização só é admissível em condições excepcionais e sob controle judicial estrito.
Critérios Objetivos para a Mensuração do Risco Tecnológico
João Quinelato de Queiroz (2024) propõe três critérios complementares para a mensuração objetiva do risco tecnológico, visando suprir a lacuna de parâmetros claros na aplicação do art. 927, parágrafo único, do Código Civil a tecnologias emergentes.
O primeiro critério é a existência de regulamentação administrativa específica: quando uma atividade tecnológica é objeto de regulação setorial, com requisitos de autorização, fiscalização e padrões técnicos, há um reconhecimento implícito de que ela cria riscos acima do tolerável ordinário. A regulamentação administrativa funciona, nesse sentido, como um indicador de que a atividade é potencialmente perigosa o suficiente para justificar a responsabilidade objetiva.
O segundo critério é o valor dos seguros para essas atividades: os mercados de seguro são sensíveis ao risco e tendem a refletir, nos prêmios exigidos, o grau de periculosidade de cada atividade. Atividades com prêmios de seguro elevados — como o transporte aéreo, a indústria nuclear e, progressivamente, o desenvolvimento de sistemas de IA autônoma — são aquelas que o mercado reconhece como intrinsecamente arriscadas.
O terceiro critério é a incidência estatística de sinistros: dados empíricos sobre a frequência e a gravidade dos danos causados por determinada atividade ou tecnologia fornecem uma base objetiva para a avaliação do risco. A ausência de dados estatísticos consolidados sobre danos causados por sistemas de IA é, ela mesma, um indicador da novidade e da imprevisibilidade dos riscos que essas tecnologias criam.
Regimes Híbridos e a Circulação Internacional de Modelos de IA
No tocante à circulação internacional de modelos de IA, a tendência identificada na doutrina e nos marcos regulatórios internacionais é a adoção de regimes híbridos: responsabilidade objetiva do operador perante a vítima, com possibilidade de regresso contra o desenvolvedor em caso de defeito do sistema. Esse modelo — que já está implicitamente presente na estrutura do CDC (arts. 12 e 13) e do Código Civil (arts. 931 e 934) para produtos tradicionais — necessita ser adaptado para as especificidades dos sistemas de IA.
Em sistemas de IA, a distinção entre "defeito de fabricação" e "risco inerente à operação" é frequentemente mais difícil de traçar do que em produtos físicos tradicionais. Um modelo de linguagem que produz respostas discriminatórias ou factualmente incorretas pode estar funcionando exatamente como foi treinado — sem qualquer defeito técnico —, mas ainda assim causando danos significativos. Nesses casos, o fundamento da responsabilidade não é o defeito do produto, mas o risco criado pela atividade de desenvolver e operar um sistema com essas características em determinados contextos.
Risco Excepcional e Risco Integral: Aplicações Contemporâneas
A teoria do risco excepcional — que se aplica a situações em que a atividade cria riscos de magnitude acima do ordinário, sem admissão de excludentes relacionadas à conduta do agente — encontra aplicação crescente no campo das tecnologias de alto impacto. Sistemas de IA utilizados em infraestrutura crítica (energia elétrica, abastecimento de água, sistemas de saúde), em decisões com impacto direto sobre direitos fundamentais (concessão de benefícios sociais, liberdade de locomoção, acesso à educação) ou em aplicações militares e de segurança pública podem ser qualificados como criadores de risco excepcional.
O risco integral, por sua vez, mantém sua aplicação restrita às hipóteses expressamente previstas em lei — notadamente os danos nucleares e os danos ambientais em determinadas configurações. Parece-nos que uma eventual extensão do risco integral a sistemas de IA exigiria prévia opção legislativa expressa, haja vista que a supressão de todas as excludentes de causalidade representa uma exceção ao regime geral que não pode ser criada por interpretação extensiva.
Implicações para a Estrutura da Responsabilidade Civil Brasileira
As implicações da teoria do risco criado para a estrutura da responsabilidade civil brasileira são profundas e de longo alcance. Em primeiro lugar, a cláusula geral do art. 927, parágrafo único, do Código Civil consolida um sistema dualista: ao lado da responsabilidade subjetiva (regra geral) coexiste a responsabilidade objetiva pelo risco criado (exceção geral), aplicável sempre que a natureza da atividade justificar o afastamento do elemento culpa.
Em segundo lugar, a interação entre essa cláusula geral e as normas especiais — CDC, LGPD, legislação ambiental, PL 2.338/2023 — cria um sistema de camadas normativas que pode ser complexo de operar, mas que oferece um grau de proteção às vítimas mais elevado do que qualquer um dos instrumentos individualmente considerados. A vítima de danos causados por um sistema de IA pode invocar, conforme o caso: o art. 12 do CDC (responsabilidade pelo defeito do produto), o art. 927, parágrafo único, do Código Civil (responsabilidade pelo risco criado), o art. 42 da LGPD (responsabilidade pelo tratamento indevido de dados pessoais), o art. 37, § 6.º, da Constituição Federal (responsabilidade do Estado) ou, futuramente, as normas específicas do PL 2.338/2023.
Síntese e Perspectivas Futuras
Em síntese, a teoria do risco criado e dos riscos da atividade oferece o fundamento mais sólido e abrangente para a responsabilidade civil por danos causados por sistemas de inteligência artificial no direito brasileiro. Sua vantagem sobre o risco-proveito é a de prescindir da demonstração de benefício econômico do agente; sua vantagem sobre a responsabilidade subjetiva é a de afastar o ônus probatório da culpa, que seria praticamente intransponível diante da opacidade técnica dos sistemas de IA.
Os desafios que permanecem são de ordem técnica — a definição de critérios objetivos para a identificação de atividades de "alto risco" — e de ordem institucional — o desenvolvimento de mecanismos processuais e de cooperação internacional que tornem efetiva a responsabilidade dos agentes de IA, inclusive aqueles sediados em outras jurisdições. O PL 2.338/2023, se aprovado com seu texto atual, representará um avanço significativo nessa direção — mas apenas o começo de um processo legislativo e jurisprudencial que, certamente, se estenderá por décadas.
Parece-nos, por fim, que a teoria do risco criado — formulada no início do século XX para responder aos desafios da industrialização — demonstra, mais uma vez, sua capacidade de adaptação e de evolução diante de novos cenários tecnológicos e sociais. Cabe à doutrina e à jurisprudência brasileiras aproveitar essa potencialidade, desenvolvendo critérios claros e consistentes que tornem a cláusula geral do art. 927, parágrafo único, um instrumento efetivo de proteção das vítimas dos riscos da era digital.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".