No âmbito da teoria subjetiva da responsabilidade civil, o nexo de imputação está fundado no ato ilícito. Nesse sentido, dispõe o art. 186 do Código Civil: "Aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito". O caput do art. 927 do mesmo diploma complementa: "Aquele que, por ato ilícito (arts. 186 e 187), causar dano a outrem, fica obrigado a repará-lo". A conjugação dessas disposições revela a estrutura lógica da responsabilidade subjetiva: somente quando o comportamento do agente viola objetivamente um dever jurídico (antijuridicidade) e pode ser a ele imputado a título de dolo ou culpa (culpabilidade) é que nasce o dever de reparar.
A posição clássica, inspirada no Código Civil francês de 1804, influenciou a Europa Continental e também se refletiu no Código Civil dos Estados Unidos do Brasil de 1916 (Lei 3.071/16), valorizando a demonstração de culpa como requisito fundamental. Embasada no liberalismo do século XIX, a exigência de prova do ilícito culposo atendia à contenção da intervenção estatal sobre a propriedade e os contratos — em um contexto em que a autonomia privada era valor supremo e a responsabilização sem culpa era vista como injusta interferência do Estado na esfera de liberdade individual. Arnaldo Rizzardo observa, nessa perspectiva, que a imputabilidade exige a exteriorização de um comportamento transgressor das regras postas pela ordem social e jurídica, voluntariamente (dolo) ou de modo negligente ou imprudente (culpa). O Direito brasileiro, embora tenha avançado em hipóteses de responsabilidade objetiva, mantém a regra da responsabilidade subjetiva por culpa nos arts. 186, 927 e 392 do Código Civil.
Pergunta-se, então: é a responsabilidade subjetiva adequada para lidar com os danos causados por sistemas de inteligência artificial? A resposta, parece-nos, é negativa como resposta geral — embora afirmativa em cenários específicos. O problema central reside na assimetria de informação: o desenvolvedor de um sistema de IA detém pleno acesso ao código-fonte, aos dados de treinamento, às escolhas arquiteturais e aos registros de comportamento do modelo; o lesado, ao contrário, tem acesso a nenhum desses elementos, e frequentemente sequer sabe que a decisão que o prejudicou foi tomada por um algoritmo. Nesse contexto, exigir que a vítima demonstre a culpa do desenvolvedor — provando que ele agiu com negligência, imprudência ou imperícia no design ou na operação do sistema — equivale, na prática, a negar-lhe o acesso à reparação.
Historicamente, valorizava-se a "culpa psicológica" (elemento subjetivo) como núcleo da responsabilidade. O direito contemporâneo, porém, enfatiza a "culpa normativa" — aferida segundo padrões objetivos de conduta socialmente exigíveis. Desse modo, deixa-se em segundo plano a investigação do estado mental do ofensor e avalia-se se ele violou deveres de diligência, prudência ou perícia. Para a inteligência artificial, esse deslocamento do psicológico para o normativo é da maior relevância: permite enquadrar a conduta do desenvolvedor não pela sua intenção, mas pela observância ou inobservância de padrões técnicos e regulatórios objetivamente definidos — como os estabelecidos pelo PL 2.338/23 e pelo AI Act europeu (Regulamento UE 2024/1689).
A perspectiva da culpa normativa aproxima, em certa medida, a responsabilidade subjetiva da objetiva: em ambos os casos, o que se avalia é a adequação da conduta a padrões externos, e não o estado psíquico do agente. Essa convergência, todavia, não elimina a distinção estrutural entre os dois regimes. Na responsabilidade subjetiva, o ônus de provar a culpa recai, em princípio, sobre o lesado (ressalvada a inversão do ônus da prova nos casos do art. 6º, VIII, do CDC e do art. 373, § 1º, do CPC). Na responsabilidade objetiva, ao contrário, basta ao lesado demonstrar o dano e o nexo causal, cabendo ao réu, se quiser exonerar-se, invocar uma das excludentes legalmente previstas. Essa distribuição do ônus probatório é, na prática, frequentemente mais decisiva do que a distinção teórica entre os regimes.
O regime objetivo de responsabilidade — consagrado no parágrafo único do art. 927 do Código Civil e nas disposições do CDC — parece ser o mais adequado para a maior parte dos casos de danos causados por sistemas de IA de alto risco. Essa adequação decorre de três razões fundamentais: primeira, quem cria e coloca em circulação um sistema de IA é quem melhor conhece seus riscos e está em posição de preveni-los; segunda, a responsabilidade objetiva cria incentivos mais eficazes para o investimento em segurança e governança tecnológica do que a responsabilidade subjetiva, que pode ser afastada pela simples demonstração de que o agente agiu com diligência; terceira, em setores regulados pelo AI Act e pelo PL 2.338/23, o cumprimento das obrigações normativas pode ser tratado como presunção de conduta adequada — mas não como excludente absoluta de responsabilidade, especialmente quando o dano decorre de riscos que a norma especificamente buscava prevenir.
As perspectivas e os desafios do nexo de imputação, no contexto da inteligência artificial, podem ser assim sintetizados: o direito brasileiro dispõe dos instrumentos normativos necessários para alcançar os responsáveis por danos causados por IA — a culpa normativa, a responsabilidade objetiva pelo risco da atividade, as disposições protetivas do CDC. O que falta é a articulação sistemática desses instrumentos em um marco normativo específico que, à semelhança do AI Act europeu, defina com clareza quais sistemas são de alto risco, quais obrigações incumbem a cada agente do ecossistema de IA e como o cumprimento ou descumprimento dessas obrigações influencia a distribuição do ônus da prova e a determinação do nexo de imputação. Enquanto o PL 2.338/23 não for aprovado e regulamentado, caberá à doutrina e à jurisprudência preencher essa lacuna — tarefa que exige tanto o domínio do aparato conceitual da responsabilidade civil quanto a compreensão das especificidades técnicas e dos riscos concretos que os sistemas de inteligência artificial introduzem nas relações jurídicas cotidianas.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".