Introdução
Os aspectos práticos da teoria do risco criado e dos riscos da atividade evidenciam, de forma contundente, como o ordenamento jurídico brasileiro consolidou um sistema de responsabilidade objetiva que, embora mais firme do que os modelos italiano e português, ainda enfrenta desafios consideráveis na sua aplicação concreta. Verificou-se que a conjugação do art. 927, parágrafo único, do Código Civil com normas especiais como o CDC e com a responsabilidade do Estado consagrada no art. 37, § 6.º, da Constituição Federal criou um sistema articulado, mas não inteiramente coerente, de imputação objetiva por risco criado.
A Ruptura com o Paradigma da Culpa Presumida
O modelo adotado pelo Brasil rompe de modo mais firme com o paradigma da culpa presumida do que os ordenamentos europeus de referência. No direito italiano, o art. 2.050 do Codice Civile permite ao agente afastar a responsabilidade demonstrando que adotou todas as medidas preventivas adequadas — o que, na prática, inverte o ônus da prova da culpa, mas não afasta o critério subjetivo como parâmetro de avaliação. O regime português, previsto no art. 493.º, n.º 2, do Código Civil, segue lógica semelhante, fundando a responsabilidade em uma presunção de culpa que pode ser ilidida pela prova de diligência.
No Brasil, o parágrafo único do art. 927 do Código Civil não estabelece qualquer ressalva baseada na adoção de medidas preventivas: a atividade que, por sua natureza, implicar risco para os direitos de outrem gera responsabilidade objetiva pura — sem que a demonstração de diligência, prudência ou adoção das melhores práticas seja suficiente para afastá-la. Essa opção legislativa é mais protetiva para as vítimas, pois concentra o debate no nexo causal entre a atividade arriscada e o dano, e não na conduta do agente.
Parece-nos, todavia, que essa maior rigidez do modelo brasileiro impõe desafios específicos de delimitação: se a responsabilidade objetiva incide sobre toda atividade que, por sua natureza, cria risco, é fundamental identificar com precisão o que se entende por "natureza arriscada" em contextos tecnológicos complexos. A ausência de um critério claro pode levar tanto à subinclusão — deixando de responsabilizar agentes que criam riscos efetivos — quanto à superinclusão — impondo responsabilidade objetiva a atividades cujos riscos são razoáveis e gerenciáveis.
A Conjunção do Art. 927 com o CDC e com a Responsabilidade do Estado
Na prática, a responsabilidade pelo risco criado no Brasil opera frequentemente por meio da conjugação de diferentes normas. O art. 927, parágrafo único, do Código Civil funciona como cláusula geral, aplicável a todas as situações não cobertas por norma especial. O CDC, por sua vez, estabelece regime específico para as relações de consumo, com as particularidades já examinadas. E o art. 37, § 6.º, da Constituição Federal consagra a responsabilidade objetiva do Estado e das pessoas jurídicas de direito privado prestadoras de serviços públicos pelos danos que seus agentes causem a terceiros.
Essa conjugação é especialmente relevante no campo dos sistemas de inteligência artificial operados pelo Poder Público ou por concessionárias de serviços públicos. Um sistema de IA utilizado por uma repartição pública para selecionar beneficiários de programas sociais, processar pedidos administrativos ou auxiliar na tomada de decisões judiciais estaria sujeito à responsabilidade objetiva do Estado, nos termos do art. 37, § 6.º, da Constituição Federal — independentemente da natureza da atividade e sem necessidade de demonstração de culpa do agente público responsável pela operação do sistema.
A LGPD (Lei n.º 13.709/2018), por sua vez, acrescenta uma camada adicional de responsabilidade para os casos em que o dano decorre de tratamento indevido de dados pessoais por sistemas de IA. O art. 42 da LGPD impõe ao controlador e ao operador de dados pessoais a obrigação de reparar os danos decorrentes de violação da legislação de proteção de dados, estabelecendo um regime de responsabilidade que, na prática, tende à objetividade.
Outros Dispositivos do Código Civil como Expressão do Risco Criado
Além do parágrafo único do art. 927, o Código Civil traz outros dispositivos considerados por parte da doutrina como expressão da teoria do risco criado, que têm relevância prática direta.
O art. 938 impõe responsabilidade objetiva pelo dano causado por objeto que cair ou for lançado de um prédio, prescindindo da identificação do culpado concreto e concentrando-se no risco criado pela situação em si. Esse dispositivo é frequentemente citado como o antecedente mais claro, no Código Civil, da lógica do risco criado aplicada a objetos inanimados — uma lógica que pode ser estendida, por analogia, a sistemas automatizados e algoritmos que operam sem intervenção humana direta.
O art. 936, por sua vez, impõe responsabilidade objetiva ao dono ou detentor do animal pelos danos causados por este, admitindo apenas a excludente de culpa exclusiva da vítima ou força maior. Essa estrutura — responsabilidade objetiva com excludentes limitadas — é análoga à que parte da doutrina propõe para os sistemas de IA autônomos: responsabilidade objetiva do operador ou desenvolvedor, afastável apenas nas hipóteses de fato exclusivo da vítima ou de terceiro, ou de caso fortuito externo.
Os regimes de responsabilidades ditas "indiretas" constantes dos arts. 932 e 933 — responsabilidade do empregador pelos atos do empregado, dos pais pelos atos dos filhos menores, dos tutores pelos tutelados — também são considerados por parcela da doutrina como manifestações da lógica do risco criado, pois fundam a responsabilidade na criação de uma situação de risco (a organização da atividade laboral, o exercício do poder familiar, a tutela) sem exigir a demonstração de culpa específica do responsável.
Risco Criado e Responsabilidade por Defeito de Produto de IA
Uma questão prática central na aplicação do risco criado ao campo da inteligência artificial é a relação entre o risco da atividade e o defeito do produto. O art. 12 do CDC impõe ao fabricante, produtor, construtor e importador a responsabilidade objetiva pelos defeitos de seus produtos. Se o sistema de IA apresenta um defeito — seja ele de concepção (design), de fabricação ou de informação — a responsabilidade recai objetivamente sobre o fornecedor.
Mas e quando o dano é causado não por um defeito específico do sistema, mas pelo risco inerente à sua operação em determinado contexto? Essa pergunta é de extrema relevância prática: um sistema de reconhecimento facial pode funcionar exatamente como planejado e, ainda assim, causar danos a indivíduos ao identificá-los erroneamente — não porque seja defeituoso, mas porque o risco de erro é inerente à tecnologia e ao seu uso em escala massiva.
Nessas hipóteses, a teoria do risco criado — aplicada via parágrafo único do art. 927 do Código Civil — parece mais adequada do que a teoria do defeito do produto: o fundamento da responsabilidade não é o defeito, mas o risco inerente à atividade de operar um sistema de reconhecimento facial em contextos de alto impacto sobre direitos individuais. O PL 2.338/2023 caminha nessa direção ao classificar determinadas aplicações de IA como sistemas de "alto risco", impondo-lhes obrigações específicas independentemente da existência de defeito.
Limites da Responsabilidade Objetiva por Risco Criado
Apesar de seu alcance amplo, a responsabilidade objetiva por risco criado admite algumas causas excludentes relevantes: o fato exclusivo da vítima, o fato de terceiro e o caso fortuito externo (aquele que ocorre de forma completamente alheia à atividade arriscada do agente). É importante ressaltar que o caso fortuito interno — aquele que, embora imprevisível, ocorre dentro do âmbito de risco criado pela atividade — não é reconhecido, em geral, como excludente de responsabilidade.
No campo da IA, a definição de "caso fortuito externo" é especialmente delicada: um ataque cibernético externo que comprometa um sistema de IA e cause danos a usuários pode ser qualificado como caso fortuito externo, afastando a responsabilidade do operador, ou como risco inerente à operação de sistemas conectados à internet, não afastando a responsabilidade. A solução dependerá da análise das medidas de segurança implementadas e do nível de previsibilidade do ataque — questões que tangenciam, inevitavelmente, o critério de culpa que a responsabilidade objetiva pretende afastar.
Considerações Finais
Os aspectos práticos do risco criado revelam um sistema de responsabilidade robusto, mas que ainda enfrenta desafios consideráveis na sua aplicação a tecnologias emergentes. Verificou-se que a conjugação do art. 927, parágrafo único, do Código Civil com o CDC, a LGPD e a responsabilidade do Estado cria um arcabouço normativo amplo, mas não inteiramente coerente, para a imputação objetiva de danos causados por atividades arriscadas — incluindo os sistemas de inteligência artificial. As perspectivas e desafios dessa aplicação serão examinados nas seções seguintes.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".