Considerações Introdutórias
As dimensões contemporâneas das teorias da causalidade revelam o quanto os instrumentos dogmáticos da responsabilidade civil são postos à prova pelas transformações tecnológicas do presente. Parece-nos que a aplicação da teoria da imputação objetiva do resultado ao universo dos sistemas de inteligência artificial constitui um dos mais relevantes laboratórios normativos do direito civil contemporâneo, pois expõe, com nitidez, as virtudes e os limites de uma construção teórica originalmente desenvolvida no âmbito penal.
Verificou-se que as dimensões contemporâneas do problema causal não se esgotam no debate entre teorias já consolidadas. A emergência de novos contextos fáticos — como os algoritmos de recrutamento, os sistemas de pontuação creditícia e as ferramentas de triagem médica automatizada — impõe ao jurista a tarefa de adaptar os instrumentos disponíveis ou, quando necessário, propor novas soluções normativas.
A Teoria da Imputação Objetiva: Dimensão Aplicativa
A teoria da imputação objetiva do resultado fundamenta-se na proposição de que um sujeito só pode ser responsabilizado se tiver criado ou incrementado um risco proibido relevante, devendo o resultado jurídico derivar diretamente desse risco. Exemplos dessa aplicação incluem a condução de veículos sob efeito de álcool, que intensifica o risco de acidentes, e a omissão de socorro em casos de afogamento, onde a inação do agente aumenta o perigo de forma decisiva, conforme Gagliano e Pamplona Filho.
Nessa ótica, não basta um nexo de causalidade material entre a conduta e o dano; é preciso que o resultado decorra do risco introduzido pelo agente, não de uma contingência tolerada ou comum. Parece-nos que essa exigência adicional confere à teoria uma função garantista relevante, impedindo a extensão ilimitada da responsabilidade a todos os agentes que, em alguma medida, contribuíram para a criação de condições que tornaram possível o dano.
Alguns estudiosos sugerem que a teoria da imputação objetiva funcione, antes de tudo, como um "mecanismo científico limitador do nexo de causalidade", auxiliando na identificação de situações onde o resultado não possa ser atribuído ao agente de modo juridicamente relevante. Dentro da responsabilidade civil, esse "filtro" funcionaria menos como uma teoria da causalidade em si e mais como uma forma de delimitação objetiva da responsabilidade — complementando, não substituindo, as teorias tradicionais.
Dimensões Contemporâneas: Algoritmos Discriminatórios e Responsabilidade Civil
Para ilustrar as dimensões contemporâneas da teoria da imputação objetiva no direito civil, recorre-se ao seguinte caso hipotético. Uma empresa desenvolve um sistema de inteligência artificial aplicado a processos de recrutamento e seleção de pessoal. O software analisa currículos, perfis em redes sociais profissionais e outras informações, atribuindo pontuações aos candidatos conforme critérios pré-estabelecidos.
Durante a fase de testes, a equipe técnica percebe que, devido aos dados históricos utilizados no treinamento, o algoritmo apresenta viés contra mulheres em determinadas áreas de atuação, atribuindo a elas notas sistematicamente mais baixas do que aos homens com qualificações semelhantes. Apesar de ter conhecimento dessa falha, pressionada por exigências executivas, a empresa decide lançar o produto como está, imaginando que o impacto discriminatório seria pontual ou facilmente corrigível.
Por consequência, em determinado processo seletivo para uma grande organização, o algoritmo rejeita de forma injustificada várias candidatas que, em tese, estariam entre as mais qualificadas para o cargo. Essa rejeição injusta impede que elas participem das etapas presenciais de entrevista, resultando em evidente prejuízo profissional e financeiro para essas candidatas, que acabam não concorrendo a uma oportunidade para a qual estavam plenamente aptas.
Sob a perspectiva da teoria da imputação objetiva, a empresa criou ou incrementou um risco proibido relevante: o risco de discriminação algorítmica por gênero, que é vedado pelo ordenamento jurídico brasileiro tanto no plano constitucional (art. 5º, I, da CF/88) quanto no plano infraconstitucional (arts. 1º e 3º da Lei 9.029/95, art. 6º da LGPD, e disposições do CDC). O resultado — a exclusão injustificada das candidatas — decorreu diretamente desse risco, caracterizando o nexo de imputação exigido pela teoria.
Implicações Normativas: LGPD, AI Act e PL 2338/23
As dimensões contemporâneas das teorias da causalidade são profundamente moldadas pelos marcos regulatórios emergentes. A LGPD, em seu art. 20, ao garantir ao titular de dados o direito de revisão de decisões automatizadas que afetem seus interesses, cria um instrumento específico de contestação de decisões algorítmicas discriminatórias. O descumprimento desse direito pelo operador do sistema de IA pode configurar elemento adicional de imputação de responsabilidade.
O PL 2338/23, em seus arts. 17 e 18, ao categorizar sistemas de IA de alto risco — incluindo aplicações de recrutamento e seleção de pessoal —, estabelece obrigações especiais de transparência, testagem e documentação. O descumprimento dessas obrigações por um desenvolvedor que lança no mercado um sistema com viés discriminatório conhecido constitui, na perspectiva da teoria da imputação objetiva, a criação de um "risco proibido relevante" que fundamenta a responsabilização.
O AI Act europeu (Regulamento UE 2024/1689), ao classificar sistemas de IA utilizados em recrutamento como de risco elevado (Anexo III), impõe obrigações análogas e cria um padrão internacional de conduta que pode influenciar, por via interpretativa, a aplicação do direito brasileiro. Parece-nos que a convergência entre os marcos regulatórios europeu e brasileiro representa uma oportunidade para o desenvolvimento de standards técnicos e jurídicos comuns que facilitem a aplicação das teorias da causalidade em contextos transnacionais.
A Dimensão Constitucional e os Direitos Fundamentais
As dimensões contemporâneas das teorias da causalidade não podem ser completamente compreendidas sem referência à dimensão constitucional do problema. O art. 5º da Constituição Federal consagra o princípio da igualdade e o direito à indenização por dano moral e material, fundamentos que sustentam a responsabilização por discriminação algorítmica independentemente da teoria causal adotada.
O princípio da dignidade da pessoa humana (art. 1º, III, CF/88) impõe que a interpretação das teorias da causalidade seja orientada pela máxima efetividade dos direitos fundamentais das vítimas. Nesse contexto, a adoção de interpretações restritivas do nexo causal que resultem na isenção de responsabilidade de desenvolvedores de sistemas de IA discriminatórios seria, a nosso ver, constitucionalmente inadequada.
Conclusão
Verificou-se que as dimensões contemporâneas das teorias da causalidade revelam a necessidade de instrumentos normativos capazes de responder adequadamente aos desafios da discriminação algorítmica e dos danos causados por sistemas de inteligência artificial. Parece-nos que a teoria da imputação objetiva do resultado, em sua vertente civil, oferece contribuições relevantes para esse enfrentamento, especialmente quando articulada com os marcos normativos da LGPD, do PL 2338/23, do AI Act europeu e com os princípios constitucionais de igualdade e dignidade. A proteção efetiva das vítimas de danos algorítmicos exige, em última análise, um direito da responsabilidade civil que seja ao mesmo tempo tecnicamente rigoroso, normativamente coerente e materialmente justo.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".