À luz da teoria da imputação objetiva do resultado — transposta do direito penal para o âmbito civil por obra da doutrina alemã, notadamente de Claus Roxin e, na seara civilista, de Karl Larenz e Cees van Dam —, é possível estruturar a análise do nexo causal em torno de dois vetores fundamentais: a criação ou incremento de um risco proibido e a realização desse risco no resultado lesivo concreto. Esse enquadramento oferece um ferramental analítico mais preciso do que o mero teste de eliminação hipotética proposto pela teoria da equivalência das condições, sobretudo quando aplicado a fenômenos de alta complexidade tecnológica como os sistemas de inteligência artificial.
Considere-se, a título ilustrativo, o caso de uma empresa que desenvolve e mantém em operação um algoritmo de seleção de pessoal sabidamente discriminatório em razão de gênero — fenômeno documentado, por exemplo, no caso do sistema de recrutamento da Amazon, desativado em 2018 após verificar-se que o modelo penalizava sistematicamente currículos de mulheres. À luz da teoria da imputação objetiva, pode-se argumentar que a empresa criou ou incrementou um "risco proibido" ao lançar e manter em operação um algoritmo com viés identificado. O dano — a discriminação algorítmica que exclui determinadas candidatas de maneira sistemática — decorre diretamente do risco que a empresa assumiu ao não corrigir ou mitigar a limitação técnica conhecida. Não se trata de uma simples falha contingencial do processo seletivo, mas de um risco ilícito que poderia ter sido evitado caso o desenvolvimento do sistema observasse os padrões de auditoria e correção de viés hoje exigidos pelo AI Act europeu (Regulamento UE 2024/1689) e pelos princípios estabelecidos no PL 2.338/23.
Pode-se argumentar, entretanto, que na seara civil as teorias do risco já bastariam para imputar tal responsabilidade, sem a necessidade de recorrer à categoria do "risco proibido" própria da imputação objetiva. Essa objeção tem mérito: o parágrafo único do art. 927 do Código Civil, ao consagrar a responsabilidade objetiva pelo exercício de atividade que, por sua natureza, implica riscos a direitos alheios, oferece uma base normativa suficientemente ampla para alcançar os desenvolvedores de sistemas de IA que causem danos discriminatórios. A teoria da imputação objetiva, porém, agrega um elemento valorativo que as teorias do risco nem sempre capturam com a mesma clareza: a distinção entre riscos permitidos — inerentes a qualquer atividade tecnológica e tolerados pelo ordenamento — e riscos proibidos — aqueles que excedem o grau de incerteza aceitável ou violam normas específicas de segurança.
Outra teoria que merece destaque, especialmente em cenários de grande complexidade causal como os proporcionados pela IA, é a da finalidade da norma, também denominada teoria do escopo de proteção da norma. Desenvolvida por autores como Albert Armin Ehrenzweig e, posteriormente, por Ernst Rabel, Wilburg e von Caemmerer, essa abordagem avalia se a proteção do lesado está entre os objetivos legais que fundamentam a responsabilidade, restringindo o nexo causal aos riscos efetivamente contemplados pela legislação aplicável. Em outras palavras: a responsabilidade civil não deve ser acionada toda vez que exista um nexo fático entre a conduta do agente e o dano sofrido pela vítima — é necessário que o tipo de dano ocorrido seja exatamente aquele que a norma violada buscava prevenir.
No campo da responsabilidade consumerista, essa perspectiva encontra exemplificação precisa: entende-se que nem todo evento está coberto pelo risco previsto no Código de Defesa do Consumidor (Lei 8.078/90). Considere-se o consumidor que, ao transportar um produto defeituoso para a assistência técnica, sofre um acidente de trânsito inteiramente alheio ao defeito em si. Embora a conditio sine qua non indique que o defeito foi, em sentido amplo, condição necessária para que o consumidor se encontrasse naquele local no momento do acidente, o risco de acidente de trânsito não está entre aqueles que a legislação consumerista buscou cobrir ao imputar responsabilidade pelo fato do produto. A norma protetiva do CDC dirige-se aos defeitos de segurança dos produtos e serviços — não a quaisquer infortúnios causalmente vinculados ao processo de consumo.
Aplicando esse raciocínio ao contexto da inteligência artificial, verifica-se que a teoria do escopo de proteção da norma pode ser especialmente útil na delimitação da responsabilidade em cadeias causais longas e complexas. Se um sistema de diagnóstico médico baseado em IA comete um erro de classificação que leva a um tratamento equivocado, e o paciente, durante o tratamento, sofre um acidente hospitalar de natureza diversa — uma queda no corredor, por exemplo —, a questão de saber se o desenvolvedor do sistema de IA responde também por esse segundo dano remete diretamente ao escopo de proteção das normas que regem o produto médico. A norma que impõe ao desenvolvedor obrigações de precisão diagnóstica e robustez técnica não tem por finalidade prevenir quedas hospitalares — e, portanto, o nexo causal entre o erro algorítmico e a queda deve ser qualificado como juridicamente irrelevante para fins de imputação.
Ainda que essa abordagem encontre críticas ao não contemplar toda a complexidade normativa — pois a determinação do "escopo" de uma norma é, ela própria, uma operação interpretativa sujeita a controvérsia —, há amplo reconhecimento doutrinário, como assinalam Guilherme Reinig e Cláudio Dantas Bisneto em seus estudos sobre causalidade no direito civil, de que a teoria do escopo de proteção da norma contribui para delimitar de maneira mais precisa em quais situações a responsabilidade civil deve incidir, evitando uma aplicação excessivamente expansiva dos critérios causais.
Cabe ressaltar, ademais, que o AI Act europeu e o PL 2.338/23 brasileiro constroem implicitamente um "escopo de proteção" normativo ao definir categorias de risco e os bens jurídicos que cada categoria visa resguardar. Os sistemas de IA de alto risco listados nos Anexos do AI Act — como os utilizados em infraestrutura crítica, educação, emprego, administração da justiça e serviços essenciais — têm seu escopo de proteção delimitado por referência aos direitos fundamentais que podem ser afetados por seu mau funcionamento. Essa estrutura normativa fornece critérios objetivos para a aplicação da teoria do escopo de proteção da norma em litígios envolvendo danos causados por IA, reduzindo a incerteza interpretativa e conferindo maior previsibilidade às decisões judiciais.
A conjugação da teoria da imputação objetiva com a teoria do escopo de proteção da norma — e, quando necessário, com os critérios da causalidade adequada — parece-nos oferecer o enquadramento mais adequado para a análise do nexo causal em casos de danos provocados por sistemas de inteligência artificial. Essa conjugação pluralista, longe de representar ecletismo metodológico inconsequente, reflete a necessidade de adaptar os instrumentos jurídicos clássicos à complexidade de fenômenos que os próprios criadores dessas teorias jamais poderiam antecipar — preservando, ao mesmo tempo, a coerência sistêmica do ordenamento e a efetividade da proteção dos lesados.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".