Voltar ao Blog
ImputaçãoCapítulo 3

O Nexo de Imputação e os Regimes de Responsabilidade: Perspectivas e Desafios

Responsabilidade subjetiva e objetiva na era da IA: culpa normativa, ato ilícito (art. 186 CC) e os desafios do nexo de imputação frente ao PL 2338/23 e AI Act.

Alessandro Lavorante 14 de fevereiro de 2025 5 min de leitura

No âmbito da teoria subjetiva da responsabilidade civil, o nexo de imputação está fundado no ato ilícito. Nesse sentido, dispõe o art. 186 do Código Civil: "Aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito". O caput do art. 927 do mesmo diploma complementa: "Aquele que, por ato ilícito (arts. 186 e 187), causar dano a outrem, fica obrigado a repará-lo". A conjugação dessas disposições revela a estrutura lógica da responsabilidade subjetiva: somente quando o comportamento do agente viola objetivamente um dever jurídico (antijuridicidade) e pode ser a ele imputado a título de dolo ou culpa (culpabilidade) é que nasce o dever de reparar.

A posição clássica, inspirada no Código Civil francês de 1804, influenciou a Europa Continental e também se refletiu no Código Civil dos Estados Unidos do Brasil de 1916 (Lei 3.071/16), valorizando a demonstração de culpa como requisito fundamental. Embasada no liberalismo do século XIX, a exigência de prova do ilícito culposo atendia à contenção da intervenção estatal sobre a propriedade e os contratos — em um contexto em que a autonomia privada era valor supremo e a responsabilização sem culpa era vista como injusta interferência do Estado na esfera de liberdade individual. Arnaldo Rizzardo observa, nessa perspectiva, que a imputabilidade exige a exteriorização de um comportamento transgressor das regras postas pela ordem social e jurídica, voluntariamente (dolo) ou de modo negligente ou imprudente (culpa). O Direito brasileiro, embora tenha avançado em hipóteses de responsabilidade objetiva, mantém a regra da responsabilidade subjetiva por culpa nos arts. 186, 927 e 392 do Código Civil.

Pergunta-se, então: é a responsabilidade subjetiva adequada para lidar com os danos causados por sistemas de inteligência artificial? A resposta, parece-nos, é negativa como resposta geral — embora afirmativa em cenários específicos. O problema central reside na assimetria de informação: o desenvolvedor de um sistema de IA detém pleno acesso ao código-fonte, aos dados de treinamento, às escolhas arquiteturais e aos registros de comportamento do modelo; o lesado, ao contrário, tem acesso a nenhum desses elementos, e frequentemente sequer sabe que a decisão que o prejudicou foi tomada por um algoritmo. Nesse contexto, exigir que a vítima demonstre a culpa do desenvolvedor — provando que ele agiu com negligência, imprudência ou imperícia no design ou na operação do sistema — equivale, na prática, a negar-lhe o acesso à reparação.

Historicamente, valorizava-se a "culpa psicológica" (elemento subjetivo) como núcleo da responsabilidade. O direito contemporâneo, porém, enfatiza a "culpa normativa" — aferida segundo padrões objetivos de conduta socialmente exigíveis. Desse modo, deixa-se em segundo plano a investigação do estado mental do ofensor e avalia-se se ele violou deveres de diligência, prudência ou perícia. Para a inteligência artificial, esse deslocamento do psicológico para o normativo é da maior relevância: permite enquadrar a conduta do desenvolvedor não pela sua intenção, mas pela observância ou inobservância de padrões técnicos e regulatórios objetivamente definidos — como os estabelecidos pelo PL 2.338/23 e pelo AI Act europeu (Regulamento UE 2024/1689).

A perspectiva da culpa normativa aproxima, em certa medida, a responsabilidade subjetiva da objetiva: em ambos os casos, o que se avalia é a adequação da conduta a padrões externos, e não o estado psíquico do agente. Essa convergência, todavia, não elimina a distinção estrutural entre os dois regimes. Na responsabilidade subjetiva, o ônus de provar a culpa recai, em princípio, sobre o lesado (ressalvada a inversão do ônus da prova nos casos do art. 6º, VIII, do CDC e do art. 373, § 1º, do CPC). Na responsabilidade objetiva, ao contrário, basta ao lesado demonstrar o dano e o nexo causal, cabendo ao réu, se quiser exonerar-se, invocar uma das excludentes legalmente previstas. Essa distribuição do ônus probatório é, na prática, frequentemente mais decisiva do que a distinção teórica entre os regimes.

O regime objetivo de responsabilidade — consagrado no parágrafo único do art. 927 do Código Civil e nas disposições do CDC — parece ser o mais adequado para a maior parte dos casos de danos causados por sistemas de IA de alto risco. Essa adequação decorre de três razões fundamentais: primeira, quem cria e coloca em circulação um sistema de IA é quem melhor conhece seus riscos e está em posição de preveni-los; segunda, a responsabilidade objetiva cria incentivos mais eficazes para o investimento em segurança e governança tecnológica do que a responsabilidade subjetiva, que pode ser afastada pela simples demonstração de que o agente agiu com diligência; terceira, em setores regulados pelo AI Act e pelo PL 2.338/23, o cumprimento das obrigações normativas pode ser tratado como presunção de conduta adequada — mas não como excludente absoluta de responsabilidade, especialmente quando o dano decorre de riscos que a norma especificamente buscava prevenir.

As perspectivas e os desafios do nexo de imputação, no contexto da inteligência artificial, podem ser assim sintetizados: o direito brasileiro dispõe dos instrumentos normativos necessários para alcançar os responsáveis por danos causados por IA — a culpa normativa, a responsabilidade objetiva pelo risco da atividade, as disposições protetivas do CDC. O que falta é a articulação sistemática desses instrumentos em um marco normativo específico que, à semelhança do AI Act europeu, defina com clareza quais sistemas são de alto risco, quais obrigações incumbem a cada agente do ecossistema de IA e como o cumprimento ou descumprimento dessas obrigações influencia a distribuição do ônus da prova e a determinação do nexo de imputação. Enquanto o PL 2.338/23 não for aprovado e regulamentado, caberá à doutrina e à jurisprudência preencher essa lacuna — tarefa que exige tanto o domínio do aparato conceitual da responsabilidade civil quanto a compreensão das especificidades técnicas e dos riscos concretos que os sistemas de inteligência artificial introduzem nas relações jurídicas cotidianas.

Responsabilidade SubjetivaResponsabilidade ObjetivaNexo de Imputação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.