A compreensão aprofundada do nexo de imputação exige que se distinga, com precisão metodológica, entre as categorias que o compõem e que, embora frequentemente tratadas como equivalentes no discurso jurídico cotidiano, possuem funções analíticas autônomas e consequências jurídicas distintas. Como sintetiza a doutrina, a antijuridicidade resulta da violação de lei ou preceito jurídico; a culpabilidade é o juízo de reprovação que recai sobre a conduta do agente; e a imputabilidade conecta o fato danoso ao sujeito que o realizou. Deve reparar o prejuízo e por que motivos — a resposta a essa pergunta depende da articulação precisa dessas três categorias no caso concreto.
Como ressaltam Farias, Braga Netto e Rosenvald, ao visar conservar certa estabilidade nos bens juridicamente relevantes, a responsabilidade civil lida com a missão de transferir a alguém a incumbência de suportar um dano, imputando-o a um sujeito diverso daquele que o experimenta. Em termos metodológicos, a identificação do fator de atribuição sucede a verificação do dano e o exame do nexo de causalidade. Isso se justifica porque não se cogita apurar se houve culpa ou se há risco da atividade se o evento danoso sequer decorreu da conduta do agente. Comprovado o nexo causal, é possível então investigar se existiu culpa, abuso de direito ou outro elemento que legitime a imputação de responsabilidade. Assim, se não houver traço de culpa, de abuso ou de ilicitude, e o caso não se enquadrar em qualquer hipótese de responsabilidade objetiva, não haverá fundamento para o dever de indenizar.
A antijuridicidade, nesse quadro, funciona como o requisito objetivo de verificação mais imediata: houve ou não violação de um dever jurídico? No contexto da inteligência artificial, esse dever pode decorrer de diferentes fontes normativas — as cláusulas gerais do Código Civil (arts. 186 e 187), as normas específicas do CDC, as obrigações de segurança técnica impostas pelo PL 2.338/23 ou os requisitos de conformidade do AI Act europeu (Regulamento UE 2024/1689) em sua eventual influência sobre o direito brasileiro. A multiplicidade de fontes normativas é, em si, um desafio: a conduta que satisfaz os requisitos de uma norma pode violar outra, e a determinação de qual norma prevalece exige critérios hermenêuticos que a doutrina ainda não consolidou para o campo específico da IA.
Importante rememorar que a discussão acerca da culpa não se confunde com a antijuridicidade da conduta, tampouco com a imputabilidade. Segundo Arnaldo Rizzardo, a imputabilidade exige a exteriorização de um comportamento transgressor das regras postas pela ordem social e jurídica, voluntariamente (dolo) ou de modo negligente ou imprudente (culpa stricto sensu). O autor sublinha que "em outras palavras, urge que o fato lesivo seja voluntário, que se impute ao agente por meio de uma ação ou omissão voluntária, ou então apresente negligência ou imprudência". Essa caracterização, claramente ajustada a agentes humanos dotados de vontade, revela-se insuficiente — ou ao menos imprecisa — quando aplicada a sistemas de IA que operam de modo autônomo, sem que se possa falar em "vontade" ou "negligência" no sentido psicológico do termo.
Daí a necessidade de reinterpretar a culpa, no contexto da IA, segundo uma perspectiva estritamente normativa: o que se avalia não é o estado mental do desenvolvedor ou operador no momento em que o sistema foi criado ou parametrizado, mas se sua conduta — compreendida como o conjunto de escolhas de design, treinamento, teste e monitoramento do sistema — estava em conformidade com os padrões de diligência objetivamente exigíveis segundo o estado da técnica e as normas aplicáveis. Essa "culpa normativa" — identificada por Bruno Miragem como a tendência contemporânea do direito da responsabilidade civil — avalia se o agente violou deveres de diligência, prudência ou perícia segundo parâmetros socialmente estabelecidos, e não se tinha ou não tinha intenção de causar o dano.
No âmbito da responsabilidade subjetiva — que, cabe ressaltar, continua sendo a regra geral do direito brasileiro (arts. 186, 927 e 392 do Código Civil) —, o nexo de imputação está fundado no ato ilícito. O art. 186 do Código Civil estabelece que "aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito". O caput do art. 927 complementa: "Aquele que, por ato ilícito (arts. 186 e 187), causar dano a outrem, fica obrigado a repará-lo". A posição clássica, inspirada no Código Civil francês de 1804 e refletida no Código Civil brasileiro de 1916 (Lei 3.071/16), valorizava a demonstração de culpa como requisito fundamental — exigência que, embasada no liberalismo de então, atendia à contenção da intervenção estatal sobre a propriedade e os contratos.
O Brasil, embora tenha avançado significativamente nas hipóteses de responsabilidade objetiva ao longo do século XX e com o Código Civil de 2002, mantém a responsabilidade subjetiva por culpa como regra geral. Isso significa que, na ausência de norma específica que consagre a responsabilidade objetiva, o lesado por dano causado por IA terá de demonstrar a culpa do desenvolvedor, operador ou usuário — tarefa que, diante da complexidade técnica dos sistemas modernos, pode ser extraordinariamente difícil sem mecanismos processuais de apoio, como a inversão do ônus da prova ou o acesso a documentação técnica do sistema.
Historicamente, valorizava-se a "culpa psicológica" (elemento subjetivo) como fundamento da responsabilidade. O direito contemporâneo, porém, enfatiza a "culpa normativa" — aferida segundo padrões objetivos de conduta socialmente exigíveis. Desse modo, deixa-se em segundo plano a investigação do estado mental do ofensor e avalia-se se ele violou deveres de diligência, prudência ou perícia objetivamente definidos. Para a inteligência artificial, essa transição do psicológico para o normativo é especialmente relevante: permite avaliar a conduta dos desenvolvedores não pela sua intenção subjetiva, mas pela observância dos padrões técnicos, das práticas de governança e das obrigações regulatórias que o estado da arte e o direito positivo impõem ao setor. É esse modelo de culpa normativa que melhor se compatibiliza com as exigências do PL 2.338/23 e com a lógica de compliance do AI Act europeu — e que, por isso, deve orientar a interpretação dos casos de responsabilidade civil por danos causados por sistemas de inteligência artificial.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".