Voltar ao Blog
ImputaçãoCapítulo 3

O Nexo de Imputação e os Regimes de Responsabilidade: Impactos e Consequências

Impactos e consequências do nexo de imputação na era da IA: insuficiência do modelo culposo, responsabilidade objetiva, abuso de direito (art. 187 CC) e cláusulas gerais do Código Civil.

Alessandro Lavorante 5 de março de 2025 7 min de leitura

A Insuficiência do Modelo Culposo Frente aos Danos Industriais e Digitais

Como bem observou Pietro Trimarchi, o princípio da responsabilidade por culpa se mostrava insuficiente para resolver o problema de danos causados na operação das indústrias, pois, se não se pode evitar tais danos, ao menos deveria se garantir uma compensação, fazendo recair a responsabilidade sobre o empreendedor que aufere lucro da atividade. Tal cenário abriu caminho para a adoção de modelos novos de responsabilidade objetiva — permitindo que se priorizasse a indenização da vítima em situações de risco inerente e nas quais a prova de imperícia, imprudência ou negligência dos agentes fosse extremamente difícil para o prejudicado.

Parece-nos que o mesmo raciocínio, transplantado para o contexto da inteligência artificial, evidencia que a responsabilidade objetiva não é uma opção política arbitrária, mas uma resposta necessária à assimetria estrutural entre aqueles que desenvolvem e operam sistemas de IA — e que, portanto, controlam o risco — e aqueles que são afetados por eles sem terem participado de sua criação ou de sua implantação. A lógica do risco-proveito, consagrada no parágrafo único do art. 927 do Código Civil, aplica-se com naturalidade a essa situação: quem aufere os benefícios econômicos do uso de IA deve arcar com os custos dos danos que ela causa.

O Nexo de Imputação e a Superação do Paradigma Culposo

Desse panorama, percebe-se que o nexo de imputação, analisado inicialmente sob a ótica da culpa e seus desdobramentos — como a antijuridicidade, a imputabilidade e a excludente de causalidade —, não se limita apenas à apreciação de atos ilícitos ou da presença de um elemento subjetivo. Ao mesmo tempo em que o direito contemporâneo reconhece a importância de aferir o grau de reprovabilidade do comportamento — dolo, negligência, imprudência ou imperícia —, emerge a necessidade de abarcar hipóteses em que essa análise se mostra insuficiente, seja pela complexidade dos sistemas de inteligência artificial, seja pela natureza mesma de certas atividades de risco.

Verificou-se que o nexo de imputação, em seu estágio mais desenvolvido, constitui um instrumento normativo flexível, capaz de operar tanto a partir da culpa quanto a partir do risco — e que a escolha entre um e outro fundamento deve ser guiada, primariamente, pela consideração de qual modelo oferece maior proteção à vítima, sem impor ônus desproporcionais à atividade que gera os riscos. No caso da IA, essa consideração milita fortemente em favor de um regime objetivo ou semi-objetivo, ao menos para os sistemas de maior potencial de dano.

As Cláusulas Gerais do Código Civil de 2002 e a IA

Com a disciplina do Código Civil de 2002, a ilicitude, enquanto fator de atribuição de responsabilidade, desdobra-se em duas cláusulas gerais: a ilicitude culposa, expressa no art. 186, tratada anteriormente; e a ilicitude por abuso de direito, positivada no art. 187, segundo o qual "também comete ato ilícito o titular de um direito que, ao exercê-lo, excede manifestamente os limites impostos pelo seu fim econômico ou social, pela boa-fé ou pelos bons costumes".

O art. 187 insere-se como uma das cláusulas gerais do Código Civil de 2002 — que permitem ao intérprete adaptar o conteúdo normativo às circunstâncias particulares de cada caso. Em vez de se limitar a preceitos taxativos, o legislador brasileiro adotou formulações abertas que conferem ao juiz margem para valorar o comportamento do agente à luz dos princípios de boa-fé, função social e bons costumes.

Parece-nos que o art. 187 tem potencial aplicativo significativo no domínio da IA, ainda que subutilizado pela doutrina e jurisprudência. O desenvolvedor que utiliza dados pessoais para treinar um sistema de IA sem observar os limites impostos pela LGPD pode estar exercendo abusivamente seu direito à livre iniciativa. O operador que implanta sistema de decisão algorítmica em contexto de alto impacto sem os devidos mecanismos de supervisão humana pode estar excedendo os limites impostos pelo fim social de sua atividade. O empregador que utiliza IA para monitorar integralmente o comportamento de seus trabalhadores, além dos limites do poder diretivo, pode estar violando a boa-fé objetiva e os bons costumes.

O Abuso de Direito como Fundamento de Responsabilidade na IA

O abuso de direito, enquanto fundamento autônomo de responsabilidade civil, apresenta a vantagem de não exigir a demonstração de culpa em sentido estrito, bastando a prova de que o agente excedeu os limites do exercício regular de seu direito. Verificou-se que esse regime pode ser particularmente útil em situações em que o desenvolvimento ou o uso de IA, embora formalmente lícito, produz efeitos desproporcionalmente danosos para terceiros ou para grupos vulneráveis — como os casos de sistemas de reconhecimento facial que apresentam taxas de erro significativamente maiores para populações negras, ou algoritmos de concessão de crédito que perpetuam discriminações históricas.

A aplicação do art. 187 nesses casos não exige que o desenvolvedor tenha agido com culpa — basta que o exercício do direito de desenvolver e comercializar o sistema de IA exceda os limites impostos pelo fim social da atividade ou pela boa-fé objetiva. Essa abordagem, ao mesmo tempo em que não responsabiliza o agente por meras imprudências técnicas, cria um padrão de conduta mais elevado: o desenvolvedor de IA deve não apenas evitar agir com culpa, mas também certificar-se de que o exercício de sua atividade não cause danos desproporcionais a terceiros.

Impactos Sistêmicos: Responsabilidade Civil como Instrumento de Governança

Os impactos e consequências do nexo de imputação no domínio da IA transcendem o plano individual dos litígios entre vítimas e responsáveis. A responsabilidade civil, quando bem calibrada, funciona como instrumento de governança: os incentivos que cria para o desenvolvimento seguro, transparente e responsável de sistemas de IA são tão importantes quanto a sua função reparatória.

Parece-nos que o design do regime de responsabilidade pela IA deve levar em conta esses efeitos sistêmicos. Um regime excessivamente severo pode desincentivar a inovação e concentrar o desenvolvimento de IA em poucos players com capacidade de absorver os custos da responsabilidade — o que paradoxalmente poderia reduzir a diversidade e a competitividade do mercado. Um regime excessivamente permissivo, por outro lado, criaria incentivos para a externalização dos custos dos danos de IA para as vítimas e para a coletividade, sem que os agentes responsáveis internalizem adequadamente os riscos de suas escolhas de design e de implantação.

Consequências para a Interpretação e Aplicação do Direito

As consequências práticas das reflexões aqui desenvolvidas para a interpretação e aplicação do direito são consideráveis. O operador do direito — juiz, advogado, árbitro — que se defronta com litígios envolvendo IA deve, em primeiro lugar, qualificar corretamente o sistema envolvido: trata-se de sistema de alto risco, de risco moderado ou de risco mínimo, nos termos do PL 2.338/2023 ou do AI Act? Em seguida, deve identificar os agentes da cadeia potencialmente responsáveis — desenvolvedor, fornecedor de dados, integrador, operador — e determinar o regime de responsabilidade aplicável a cada um.

Verificou-se que as cláusulas gerais do Código Civil — especialmente o art. 187 e o parágrafo único do art. 927 — fornecem fundamento normativo suficiente para que os tribunais brasileiros construam, progressivamente, uma jurisprudência sobre responsabilidade por IA antes mesmo da aprovação de um marco regulatório específico. Essa construção pretoriana, embora necessariamente casuística e por vezes inconsistente, é condição indispensável para que o direito brasileiro não permaneça paralisado diante da aceleração tecnológica enquanto aguarda a solução legislativa definitiva.

A síntese entre os fundamentos históricos da responsabilidade objetiva, as cláusulas gerais do Código Civil e os instrumentos regulatórios em construção configura, portanto, o horizonte normativo dentro do qual o direito brasileiro deverá enfrentar os impactos e as consequências da inteligência artificial nos próximos anos.

Responsabilidade SubjetivaResponsabilidade ObjetivaNexo de Imputação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.