A inteligência artificial tensiona os regimes tradicionais de responsabilidade civil de maneira singular: pode tanto operar sob pleno controle de seus desenvolvedores ou usuários quanto tomar decisões autônomas que escapam ao escrutínio humano imediato. Essa dualidade — entre ferramenta controlada e agente autônomo — é o ponto de partida necessário para compreender por que os critérios clássicos de imputação precisam ser reexaminados e, em alguns casos, reformulados diante das novas tecnologias. O objetivo deste capítulo é delimitar os nexos de imputação que justificam atribuir a obrigação de indenizar a determinados agentes, explorando como a ideia de culpa em sentido amplo ou de risco — entre outros fatores — é adaptada às exigências da era algorítmica.
Cabe ressaltar, antes de qualquer análise, que a responsabilidade decorrente da IA não pode ser tratada como um bloco monolítico. A depender da legislação aplicável — o Código Civil de 2002, o Código de Defesa do Consumidor (Lei 8.078/90), o Projeto de Lei 2.338/23, a própria Constituição Federal de 1988 ou os marcos normativos europeus adotados por via de tratado ou influência doutrinária —, os modelos disponíveis variam substancialmente: responsabilidade subjetiva, objetiva ou híbrida. Cada um desses regimes possui pressupostos, mecanismos de exclusão e ônus probatórios específicos, e a identificação do regime aplicável é a primeira e mais decisiva tarefa do intérprete diante de um litígio envolvendo dano causado por IA.
A doutrina moderna e o direito comparado vêm propondo soluções de diversas naturezas para enfrentar esse desafio. No plano classificatório, propõe-se categorizar os sistemas de inteligência artificial de acordo com critérios de risco — estratégia adotada explicitamente pelo AI Act europeu (Regulamento UE 2024/1689), que distingue sistemas de risco inaceitável, alto risco, risco limitado e risco mínimo, atribuindo a cada categoria obrigações regulatórias e consequências de responsabilidade progressivamente mais severas. No plano da imputação, sugerem-se regimes de responsabilidade objetiva ou de presunção de culpa, inversão do ônus da prova e obrigações acessórias de compliance mais estritas — todos voltados a corrigir a assimetria de informação que caracteriza a relação entre os lesados por sistemas de IA e os agentes do ecossistema tecnológico.
É justamente nessa convergência de princípios — reparação integral, diversidade de regimes e peculiaridades tecnológicas — que se organiza a análise dos critérios de imputação pela IA. A centralidade do nexo de imputação não pode ser reduzida a um elo causal meramente fático: envolve, em última instância, elementos valorativos que indicarão "quem deve pagar o prejuízo" e "por que" o fará. Quem desenvolveu o modelo? Quem o operou? Quem o parametrizou para um uso específico? Quem se beneficiou economicamente de seu funcionamento? Quem tinha maior capacidade de prever e prevenir o dano? Essas perguntas — que o direito da responsabilidade civil clássico responderia com relativa facilidade em cenários de causalidade simples — adquirem enorme complexidade quando o "agente" do dano é um sistema de aprendizado profundo cujas decisões emergem de interações entre bilhões de parâmetros.
Para lidar com essa pluralidade de cenários, a análise deve avançar de forma gradual. Inicia-se pela discussão sobre o nexo de imputação e as modalidades clássicas de responsabilidade subjetiva — fundada na culpa — e objetiva — lastreada no risco. Abordam-se as premissas da responsabilidade civil no direito brasileiro, especialmente a partir do Código Civil e do CDC, para em seguida examinar como essas premissas são adaptadas — ou subvertidas — pelas especificidades da IA.
Na sequência, analisa-se o papel das teorias do risco — administrativo, profissional, do proveito, criado, excepcional e integral — como fundamentos da responsabilidade objetiva aplicável a sistemas de IA. Cada uma dessas modalidades oferece uma perspectiva distinta sobre quem deve suportar os custos dos danos tecnológicos: a teoria do risco do proveito, por exemplo, sugere que quem extrai benefício econômico da atividade deve arcar com os riscos que ela cria; a teoria do risco criado foca na criação do risco em si, independentemente do benefício obtido; e a teoria do risco integral, mais rigorosa, elimina as excludentes de responsabilidade em setores de risco particularmente elevado.
A perspectiva prática revela que a mera transposição dos regimes clássicos de responsabilidade para o domínio da IA é insuficiente. Tome-se o exemplo de um sistema de crédito automatizado que nega crédito a consumidores com base em critérios opacos, possivelmente discriminatórios. Pela lógica consumerista do CDC, o fornecedor responde objetivamente pelos danos causados por vícios do serviço — mas a caracterização do "vício" em um sistema algorítmico opaco exige que o consumidor demonstre, ao menos minimamente, que o resultado foi anormal, o que pode ser impossível sem acesso ao código-fonte ou aos dados de treinamento. É aqui que mecanismos como a inversão do ônus da prova (art. 6º, VIII, do CDC) e as obrigações de explicabilidade e transparência previstas no PL 2.338/23 se tornam instrumentos essenciais — não apenas processuais, mas substantivos — de efetivação do direito à reparação.
Abre-se, então, um campo de análise ainda pouco explorado pela doutrina brasileira: a responsabilidade pelo fato das coisas, pelo fato de animais e pelo fato de terceiros — categorias tradicionais do direito civil que, sob certas circunstâncias, podem ser analogicamente aplicadas a sistemas de IA de alta autonomia. Há quem sustente, em perspectiva comparada, que a responsabilidade pelo fato das coisas — prevista no art. 937 do Código Civil — oferece base normativa suficiente para alcançar os proprietários ou operadores de sistemas de IA que, atuando de modo autônomo, causam danos. Há, igualmente, quem discuta se pais podem vir a responder civilmente quando filhos menores utilizam indevidamente plataformas de IA, gerando danos a terceiros — hipótese que recoloca, em nova roupagem, as tradicionais questões da responsabilidade por fato de terceiro.
Ao final, espera-se demonstrar que a determinação do nexo de imputação no contexto da IA extrapola a mera identificação de quem "apertou o botão". É preciso, de forma justa e eficiente, localizar não apenas os responsáveis formais, mas, acima de tudo, quem deve suportar o dano — conservando o equilíbrio entre a necessidade de reparação integral e a viabilização das inovações tecnológicas. Esse equilíbrio, difícil de atingir em qualquer ramo do direito, é aqui especialmente delicado: uma responsabilidade excessivamente rigorosa pode inibir o desenvolvimento de tecnologias benéficas; uma responsabilidade insuficiente ou mal calibrada pode deixar desprotegidas as vítimas mais vulneráveis de sistemas cujos criadores são, frequentemente, os mais bem posicionados para prevenir os danos que causam.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".