Voltar ao Blog
ImputaçãoCapítulo 3

O Nexo de Imputação e os Regimes de Responsabilidade: Aplicações e Implicações

Aplicações e implicações do nexo de imputação na responsabilidade pela IA: culpa, autonomia algorítmica, imprudência e negligência sob o art. 186 do Código Civil.

Alessandro Lavorante 16 de fevereiro de 2025 6 min de leitura

A Culpa no Sistema do Código Civil de 2002

Sob o art. 186 do Código Civil, a culpa pode ser avaliada em abstrato, pela ótica da "pessoa média", ou em concreto, considerando as particularidades do agente. Em apertada síntese, a imprudência implica a prática de ato que gera previsibilidade de dano, mas não foi evitado; a negligência reflete a omissão do cuidado que se esperava; a imperícia decorre da ausência de conhecimentos técnicos mínimos para o exercício de determinada atividade profissional.

Parece-nos que esses três elementos da culpa — imprudência, negligência e imperícia — possuem campo de incidência autônomo e distinto, ainda que frequentemente se sobreponham em situações concretas. No âmbito da inteligência artificial, contudo, a aplicação de cada um desses conceitos exige adaptações metodológicas relevantes. A imprudência do desenvolvedor poderia configurar-se, por exemplo, no lançamento precipitado de um sistema sem testes de segurança adequados; a negligência, na ausência de mecanismos de monitoramento contínuo do comportamento do algoritmo após sua implantação; a imperícia, na construção de modelos de IA por profissionais sem a qualificação técnica mínima exigida pelo estado da arte da área.

A Tensão entre Culpa e Autonomia Algorítmica

Entretanto, entre outros fatores sociais, a inserção de tecnologias avançadas no cotidiano — como entes dotados de inteligência artificial — tensiona os contornos tradicionais da culpa. Mafalda Miranda Barbosa destaca que "é exatamente a centralidade do conceito de culpa que faz com que os sistemas delituais se mostrem insuficientes para lidar com danos causados por entes dotados de inteligência artificial", já que esses algoritmos contam com autonomia e autoaprendizagem.

Verificou-se que, em alguns casos, é possível associar o dano a condutas humanas culposas — como falha de segurança ou omissão de atualizações —, mas, em outros, a autonomia algorítmica escapa ao juízo de reprovabilidade. O sistema de IA que, após extenso período de treinamento, desenvolve comportamentos emergentes não previstos pelo desenvolvedor ilustra bem essa dificuldade: a quem se imputa a culpa por um resultado que nenhum agente humano quis, previu ou poderia razoavelmente ter prevenido? Esse questionamento constitui o ponto de maior tensão entre a dogmática clássica da responsabilidade subjetiva e as exigências de uma regulação eficaz da IA.

Assim, as discussões de culpa no âmbito da IA vêm sendo repensadas para abarcar hipóteses em que o dano decorre da atuação autônoma dos sistemas, sem que se possa identificar com clareza a conduta humana reprovável que o antecedeu. Parte da doutrina propõe a adoção de um padrão de culpa organizacional, em que a responsabilidade se afere não pela conduta de um indivíduo específico, mas pelo modo como a organização estruturou seus processos de desenvolvimento, validação e monitoramento da IA.

Culpa Intencional e Culpa Não Intencional no Domínio da IA

Questões correlatas aparecem na distinção entre culpa intencional e não intencional. No primeiro caso, há um agente humano que, deliberadamente, coloca a IA em situação de gerar danos — como o desenvolvedor que treina um sistema com dados enviesados para discriminar determinados grupos, ou o operador que utiliza a IA para fins ilícitos. Em contrapartida, a grande maioria dos danos se dá sem intenção maliciosa, resultando de configurações ou usos negligentes.

A culpa não intencional — situação em que o agente não previu a eventualidade do dano ou, se a previu, assumiu o risco —, ao contrário do que se poderia supor, não é de fácil caracterização no domínio da IA. A complexidade técnica dos sistemas e a opacidade dos processos decisórios dificultam a demonstração de que o agente efetivamente tinha condições de prever o resultado danoso e que sua omissão foi, portanto, culposa. Parece-nos que a solução passa pela adoção de padrões técnicos mínimos de cuidado — como os definidos por normas internacionais de segurança em IA — cujo desatendimento presuma a culpa do desenvolvedor ou operador.

A Responsabilidade Extracontratual e os Limites da Prova da Culpa

Quanto à responsabilidade extracontratual, os regimes de imputação subjetiva da responsabilidade enfrentam limitações na prova da culpa do agente humano que utiliza IA. A necessidade de demonstrar o nexo causal e a falha do tomador de decisão torna-se particularmente onerosa para a vítima que, além de ignorar os detalhes técnicos do sistema, não tem acesso à documentação interna do desenvolvedor ou operador.

Verificou-se que o CDC, ao inverter o ônus da prova em favor do consumidor (art. 6º, VIII), mitiga parcialmente esse problema nas relações de consumo. O PL 2.338/2023, por sua vez, ao estabelecer presunção de culpa para os sistemas que não sejam de alto risco (art. 27, § 2º), adota solução intermediária entre a responsabilidade subjetiva plena e a responsabilidade objetiva, buscando equilibrar a proteção da vítima com a necessidade de não impor ônus excessivo aos agentes inovadores.

A Responsabilidade Contratual e seus Limites Frente a Terceiros

A responsabilidade contratual, por sua vez, embora se aplique às obrigações de venda ou prestação de serviços que envolvem sistemas de IA, mostra-se insuficiente para abarcar danos a terceiros ou cenários em que a IA é usada por estranhos ao contrato. O princípio da relatividade dos efeitos contratuais — res inter alios acta — impede que a vítima estranha à relação contratual invoque as garantias do contrato para obter reparação, sendo-lhe necessário recorrer aos regimes de responsabilidade extracontratual.

Parece-nos que essa limitação é especialmente relevante no contexto das plataformas digitais que utilizam IA para intermediar relações entre usuários, pois a vítima de decisão algorítmica discriminatória pode não ter vínculo contratual com o desenvolvedor do sistema, mas apenas com a plataforma operadora — e mesmo essa relação pode ser de difícil caracterização como contratual em sentido técnico, especialmente quando a plataforma opera sob modelo de gratuidade aparente.

Implicações Práticas para o Contencioso

As aplicações e implicações do nexo de imputação no domínio da IA revelam um quadro de considerável complexidade dogmática. O operador do direito que se defronta com litígios envolvendo sistemas inteligentes precisa, antes de tudo, qualificar corretamente o regime de responsabilidade aplicável — subjetivo ou objetivo —, identificar os agentes da cadeia que podem ser responsabilizados solidária ou subsidiariamente e compreender as limitações probatórias inerentes à opacidade dos algoritmos.

A articulação entre o Código Civil, o CDC, o PL 2.338/2023 e, em perspectiva comparada, o AI Act europeu, fornece o ferramental normativo disponível para esse enfrentamento. Não obstante, verificou-se que o estado atual do direito brasileiro ainda deixa lacunas significativas — sobretudo no que tange à prova do nexo causal em sistemas de deep learning —, que somente poderão ser colmatadas por uma combinação de evolução legislativa, desenvolvimento doutrinário e construção jurisprudencial progressiva.

Responsabilidade SubjetivaResponsabilidade ObjetivaNexo de Imputação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.