Introdução
As perspectivas e os desafios do risco criado e dos riscos da atividade no contexto contemporâneo situam-se, em grande medida, na fronteira entre o direito privado codificado e a regulação setorial emergente. Verificou-se que a cláusula geral do art. 927, parágrafo único, do Código Civil, embora suficientemente aberta para capturar situações novas e imprevistas, enfrenta dificuldades interpretativas significativas quando confrontada com a complexidade técnica e a velocidade de evolução das tecnologias de inteligência artificial. A superação dessas dificuldades exige tanto um esforço doutrinário de precisão conceitual quanto uma interação produtiva entre o direito civil e os marcos regulatórios setoriais.
Os Elementos da "Atividade" no Art. 927, Parágrafo Único
Antes mesmo de se falar em risco, deve-se compreender o que os intérpretes entendem por "atividade", "natureza" e "normalmente desenvolvida" no texto do parágrafo único do art. 927 do Código Civil. Esses elementos são os filtros que determinam o âmbito de aplicação da cláusula geral de risco criado — e sua interpretação tem consequências diretas para a responsabilidade civil por sistemas de inteligência artificial.
Sérgio Cavalieri Filho (2023) associa "atividade" a condutas reiteradas, usualmente de cunho profissional ou empresarial, e "natureza" a um elemento intrínseco que distingue o risco inerente do risco eventual. Para o autor, apenas o risco que é constitutivo da própria natureza da atividade — e não o que pode ou não se manifestar dependendo de circunstâncias externas — justificaria a responsabilidade objetiva do parágrafo único. Essa distinção é crucial para o campo da IA: o risco de erro de um sistema de reconhecimento facial é inerente à tecnologia (risco constitutivo), enquanto o risco de um ataque cibernético pode ser considerado eventual (risco externo).
Maria Celina Bodin de Moraes entende que "atividade normalmente desenvolvida" implica um conjunto coordenado e contínuo de atos, afastando episódios isolados. Para a autora, o fundamento da responsabilidade objetiva no parágrafo único do art. 927 não seria o perigo abstrato, mas a desconformidade da atividade com a segurança legitimamente exigida — aproximando-se do art. 14 do CDC, mas com espectro mais amplo, abrangendo relações extracontratuais. Essa perspectiva é particularmente relevante para os sistemas de IA que operam de forma contínua e massiva, pois reforça que a responsabilidade não se funda em episódios isolados, mas na natureza sistemática da atividade.
Otávio Luiz Rodrigues Junior realça o aspecto organizacional da atividade, reforçando a necessidade de estrutura e de funcionamento sistemático para que se aplique a responsabilidade objetiva. Para o autor, atividades que não possuam uma organização mínima — que não se estruturem como um empreendimento coordenado — não se qualificam como "atividade" para fins do parágrafo único do art. 927.
O Desafio da Delimitação do "Alto Risco" em Tecnologia
Um dos maiores desafios prospectivos para a aplicação da teoria do risco criado ao campo da inteligência artificial é a delimitação do que constitui uma atividade de "alto risco" tecnológico. Atualmente, discute-se muito o conceito de "alto risco" do sistema de IA, e as propostas, em geral, tentam trazer uma análise qualitativa dos potenciais danos, levando em conta não apenas a probabilidade de ocorrência, mas também a gravidade esperada — sobretudo em cenários que envolvem dados sensíveis e algoritmos autônomos.
João Quinelato de Queiroz (2024) pondera que faltam critérios objetivos para medir estatisticamente a periculosidade de tecnologias emergentes, dada sua velocidade de evolução. Como método de avaliação, o autor propõe considerar: (i) a existência de regulamentação administrativa específica para a atividade; (ii) os valores de seguro elevados para essas atividades, que refletem a avaliação de mercado do risco; e (iii) a incidência estatística de sinistros, que fornece uma base empírica para a aferição do grau de periculosidade. Esses critérios, combinados, poderiam oferecer um parâmetro mais objetivo para a aplicação da cláusula geral de risco criado a tecnologias emergentes.
Carlos Edison do Rego Monteiro Filho e Nelson Rosenvald (2023), ao examinarem as duas décadas de vigência do parágrafo único do art. 927 do Código Civil, identificam que a jurisprudência ainda não desenvolveu critérios suficientemente claros para a identificação de "atividades de risco" — o que gera insegurança jurídica e dificulta a aplicação consistente da norma. Esse problema se agrava exponencialmente quando se trata de tecnologias como a IA, cujo desenvolvimento é mais rápido do que a capacidade dos tribunais de processar seus impactos.
Responsabilidade Objetiva e Segurança Legitimamente Exigida
A perspectiva de Maria Celina Bodin de Moraes — segundo a qual o fundamento da responsabilidade objetiva é a desconformidade com a segurança legitimamente exigida — oferece uma saída promissora para o desafio de aplicar o art. 927, parágrafo único, à IA. Em vez de tentar definir abstratamente o que é uma atividade "intrinsecamente arriscada", essa abordagem parte do que a sociedade razoavelmente espera em termos de segurança de determinados sistemas tecnológicos.
Nessa perspectiva, um sistema de IA utilizado em decisões de crédito deve atender ao padrão de segurança legitimamente exigido para esse tipo de aplicação — o que inclui a ausência de discriminação algorítmica, a transparência na tomada de decisão e a possibilidade de revisão humana dos resultados. Se o sistema não atende a esse padrão, a responsabilidade objetiva incide — não porque a atividade seja abstratamente perigosa, mas porque ela não corresponde ao que a sociedade, razoavelmente, espera em termos de segurança.
Essa abordagem é coerente com os princípios da LGPD — especialmente os arts. 6.º e 20 — e com as exigências do PL 2.338/2023 quanto à transparência, explicabilidade e auditabilidade dos sistemas de IA. Ela também se aproxima da abordagem do AI Act europeu, que classifica os sistemas de IA por níveis de risco e impõe obrigações progressivamente mais rigorosas conforme o potencial de dano.
A Interação entre o Art. 927 e as Responsabilidades Indiretas
O exame das perspectivas e desafios do risco criado seria incompleto sem abordar sua relação com os regimes de responsabilidades ditas "indiretas" dos arts. 932 e 933 do Código Civil. Esses dispositivos — que impõem responsabilidade objetiva ao empregador pelos atos do empregado, aos pais pelos atos dos filhos menores, aos tutores pelos tutelados, entre outros — são considerados por parcela da doutrina como expressões da lógica do risco criado, embora sua base histórica e dogmática seja diversa.
Para os sistemas de IA, essa questão é especialmente relevante: se um sistema de IA autônomo causa danos a terceiros, os arts. 932 e 933 podem ser invocados para responsabilizar o operador — como se o sistema fosse um "preposto" do qual o operador responde objetivamente. Essa analogia, embora provocativa, enfrenta a objeção de que os arts. 932 e 933 pressupõem a existência de uma pessoa física ou jurídica que atua como subordinada ou dependente do responsável — e que um sistema de IA, em si, não possui personalidade jurídica nem capacidade de ação no sentido técnico-jurídico.
A questão da personalidade jurídica dos sistemas de IA — e, em sentido mais amplo, da subjetividade jurídica de entidades não humanas — é um dos temas mais instigantes e controversos do direito contemporâneo. A Resolução do Parlamento Europeu de 2020 aventou a possibilidade de criar uma "personalidade eletrônica" para robôs e sistemas de IA, mas a proposta foi recusada por grande parte da doutrina e não integrou o AI Act. No Brasil, o PL 2.338/2023 não avança nessa direção, concentrando-se na responsabilização dos agentes humanos — fornecedores e operadores — que desenvolvem e operam os sistemas.
Circulação Internacional de Modelos de IA e Regimes Híbridos
No tocante à circulação internacional de modelos de IA, há uma tendência de se adotar regimes híbridos, conjugando a responsabilidade objetiva do operador ou fornecedor com possibilidades de regresso contra o produtor, sobretudo em se tratando de defeitos de fabricação do software. Essa estrutura — operador objetivamente responsável perante a vítima, com direito de regresso contra o desenvolvedor em caso de defeito —, embora não esteja expressamente prevista no direito brasileiro vigente, pode ser construída a partir da conjugação dos arts. 931 e 933 do Código Civil com o art. 12 do CDC.
Parece-nos que essa solução é pragmaticamente eficiente: ela assegura às vítimas um responsável próximo e identificável — o operador local do sistema de IA —, sem isentar o desenvolvedor original, que pode estar sediado em outro país, dos encargos decorrentes de defeitos do sistema que ele projetou e comercializou. A viabilidade dessa solução depende, contudo, do desenvolvimento de mecanismos processuais eficazes de cooperação internacional em matéria de responsabilidade civil — um campo ainda incipiente, mas de crescente importância.
Considerações Finais
As perspectivas e os desafios do risco criado e dos riscos da atividade revelam uma teoria em plena evolução, confrontada com questões que seus formuladores originais jamais poderiam ter antecipado. Verificou-se que a cláusula geral do art. 927, parágrafo único, do Código Civil é suficientemente flexível para abranger os riscos da inteligência artificial, mas que sua aplicação eficaz requer o desenvolvimento de critérios mais precisos de avaliação do "alto risco" tecnológico. A interação entre o direito civil codificado e os marcos regulatórios setoriais — especialmente o PL 2.338/2023 e o AI Act europeu — será decisiva para consolidar um regime de responsabilidade civil por danos de IA que seja ao mesmo tempo justo para as vítimas e previsível para os agentes. As aplicações e implicações concretas dessa construção serão examinadas na seção final.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".