Voltar ao Blog
ImputaçãoCapítulo 3

O Nexo de Imputação e os Regimes de Responsabilidade: Análise Aprofundada

Análise aprofundada dos regimes de responsabilidade coletiva, em cascata e individual na imputação de danos por inteligência artificial, com fundamentos no Código Civil, CDC e PL 2338/23.

Alessandro Lavorante 17 de março de 2025 8 min de leitura

Introdução

A análise aprofundada dos regimes de imputação por danos de inteligência artificial impõe a superação de uma perspectiva meramente descritiva dos institutos jurídicos existentes. É necessário confrontar os modelos doutrinários com as exigências práticas dos litígios contemporâneos, identificando suas virtudes, seus limites e as lacunas que o legislador e o intérprete devem preencher.

Este artigo aprofunda o exame dos três modelos principais de imputação — individual, em cascata e coletivo — a partir das contribuições de Adrien Bonnet, Alain Bensoussan e David Vladeck, situando-os no contexto do ordenamento brasileiro e das tendências regulatórias em curso, com especial atenção ao Código Civil, ao CDC e ao PL 2338/23.

O Regime de Responsabilidade em Cascata: Inspiração e Limites

O regime de responsabilidade em cascata, proposto por Alain Bensoussan, inspira-se em sistemas já conhecidos do direito — a responsabilidade por produtos defeituosos e a responsabilidade por conteúdos ilícitos online. O ponto de partida é a constatação de que, em certas cadeias de produção e distribuição de tecnologias de IA, torna-se difícil ou impossível identificar o responsável primário pelo dano, seja pela multiplicidade de agentes envolvidos, seja pela opacidade do processo de desenvolvimento e operação do sistema.

O modelo em cascata admite a responsabilização subsidiária de diferentes atores, obrigando cada um deles a responder pelos danos que não tenham sido reparados pelo agente imediatamente anterior na cadeia. Essa solução tem o mérito de assegurar à vítima sempre um responsável solvente a alcançar, independentemente da insolvência ou da impossibilidade de identificação do causador primário do dano.

No direito brasileiro, o modelo em cascata encontra parcial correspondência na regra do art. 13 do CDC, que prevê a responsabilidade subsidiária do comerciante pelo fato do produto nas hipóteses em que o fabricante, construtor, produtor ou importador não puder ser identificado ou não estiver presente na cadeia comercial. Contudo, o modelo cadenciado do CDC é limitado ao âmbito consumerista e opera de forma mais restrita do que a proposta de Bensoussan, que se estende a toda a cadeia de desenvolvimento e operação da IA.

A principal crítica ao modelo em cascata reside no risco de sobrecarregar um único agente com responsabilidades que, em rigor, seriam compartilhadas por múltiplos atores. Quando as contribuições causais são indeterminadas — como frequentemente ocorre em sistemas de IA dotados de autoaprendizado —, a atribuição integral do dano ao último agente da cadeia pode gerar injustiças e desestimular a participação de atores auxiliares no ecossistema de IA.

A Responsabilidade Coletiva: Common Enterprise Liability e Direito Brasileiro

A responsabilidade coletiva, adaptada por David Vladeck a partir da common enterprise liability norte-americana, representa uma alternativa para as situações em que múltiplos agentes participam conjuntamente do processo de concepção e operação da IA, sem que seja possível — ou mesmo necessário — individualizar a contribuição de cada um para o dano.

Vladeck sustenta que a common enterprise liability permite ao direito impor responsabilidade conjunta sem que seja indispensável "expor e lidar com todos os detalhes que permitiriam atribuir todos os aspectos de um dano a uma ou outra parte; basta que, na busca de um objetivo comum, as partes tenham cometido um erro". Essa abordagem é especialmente adequada para os casos de desenvolvimento colaborativo de sistemas de IA — plataformas de código aberto, consórcios de pesquisa, ecossistemas de aplicativos —, nos quais a responsabilização individual estrita seria de difícil operacionalização.

Parece-nos, contudo, que a responsabilidade coletiva, apesar de sua abrangência, enfrenta problemas de implementação quando múltiplos agentes participam do processo de concepção e operação da IA com contribuições muito distintas. Bonnet aponta, nesse sentido, a necessidade de "pools de responsáveis" com repartição prévia dos riscos — mecanismo que pressupõe acordos contratuais sofisticados entre os participantes do ecossistema de IA, cujo alcance prático pode ser limitado, especialmente em relação a atores de menor porte ou em mercados emergentes como o brasileiro.

No ordenamento nacional, a responsabilidade solidária dos coautores do dano, prevista no art. 942, parágrafo único, do Código Civil, e a responsabilidade solidária da cadeia de fornecedores, prevista no art. 7º, parágrafo único, do CDC, constituem os fundamentos normativos mais próximos do modelo coletivo. A aplicação desses dispositivos aos litígios de IA exigirá, todavia, interpretação extensiva e adaptativa, tendo em vista as peculiaridades do ecossistema tecnológico.

A Funcionalidade do Nexo de Imputação na Era da IA

Verificou-se, ao longo desta análise, que a funcionalidade do nexo de imputação, no contexto da IA, não se limita à pergunta "quem causou o dano?", mas expande-se para "quem deve responder pelos riscos e em que medida?". Essa reformulação é essencial para evitar que a complexidade técnica e a opacidade dos sistemas de IA conduzam à impunidade dos agentes econômicos responsáveis pela criação e operação dessas tecnologias.

A responsabilidade objetiva, a presunção de culpa e os modelos de imputação coletiva e em cascata servem, cada um a seu modo, para redistribuir os custos dos danos de IA de uma forma que reflita, com maior precisão, a capacidade de cada agente de controlar, prevenir e mitigar os riscos associados à tecnologia que desenvolve ou opera. Essa redistribuição não é apenas uma questão de justiça corretiva — reparar o dano causado a uma vítima específica —, mas também de justiça distributiva e preventiva: induzir os agentes econômicos a internalizar os custos dos riscos que criam e a adotar as melhores práticas de desenvolvimento e operação de IA.

O PL 2338/23 avança nessa direção ao prever, para os sistemas de alto risco, responsabilidade objetiva com distribuição proporcional entre os agentes da cadeia. Contudo, a efetividade desse regime depende da criação de critérios claros para a classificação dos sistemas de IA por nível de risco e de mecanismos processuais que facilitem a produção de prova técnica nos litígios de responsabilidade civil.

A LGPD e o Direito à Explicabilidade Algorítmica

A Lei Geral de Proteção de Dados (LGPD — Lei nº 13.709/2018) introduz, no art. 20, o direito do titular à revisão de decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais — incluindo decisões produzidas por sistemas de IA. Esse direito à explicabilidade algorítmica tem relevância direta para o nexo de imputação: a impossibilidade de explicar a decisão do sistema pode configurar defeito de transparência imputável ao controlador, atraindo a responsabilidade objetiva ou a presunção de culpa previstas nos arts. 42 e 43 da própria LGPD.

Além disso, a LGPD estabelece, em seu art. 42, §2º, que o juiz, no processo civil, poderá inverter o ônus da prova a favor do titular dos dados, quando for verossímil a alegação ou quando a vítima for hipossuficiente — em clara inspiração no modelo consumerista do CDC. Essa previsão reforça a tendência do ordenamento brasileiro de adotar mecanismos de facilitação probatória nos litígios envolvendo tecnologias complexas, aliviando o ônus da vítima sem eliminar a possibilidade de defesa do agente responsável.

Implicações Práticas para o Contencioso de IA

Do ponto de vista prático, a análise aprofundada dos regimes de imputação por danos de IA revela alguns pontos críticos para o contencioso que se avizinha. Em primeiro lugar, a definição do agente responsável — desenvolvedor, fornecedor, operador ou usuário — dependerá, em cada caso, da análise do grau de controle efetivo exercido sobre o sistema e do nível de risco que a atividade representa para terceiros.

Em segundo lugar, a prova do dano e do nexo causal será frequentemente dependente de perícia técnica especializada, capaz de reconstruir o funcionamento do sistema de IA e identificar as causas do resultado danoso. A adoção de mecanismos processuais de facilitação probatória — inversão do ônus, presunções judiciais, ordens de exibição de documentação técnica — será indispensável para garantir a efetividade da tutela jurisdicional.

Em terceiro lugar, a multiplicidade de agentes envolvidos no ecossistema de IA exigirá, com frequência, a formação de litisconsórcio passivo e a aplicação dos regimes de solidariedade e subsidiariedade previstos no Código Civil e no CDC, adaptados às peculiaridades das cadeias de valor tecnológicas.

Conclusão

A análise aprofundada dos regimes de imputação por danos de IA confirma que os modelos doutrinários disponíveis — individual, em cascata e coletivo — oferecem respostas parciais e complementares para os desafios colocados pela tecnologia. Nenhum deles, isoladamente, é suficiente para abarcar toda a complexidade do ecossistema de IA. O ordenamento brasileiro dispõe de bases normativas sólidas — no Código Civil, no CDC, na LGPD e no PL 2338/23 —, mas a construção de um regime coerente e efetivo dependerá da colaboração entre legisladores, doutrinadores, julgadores e especialistas técnicos, em um processo contínuo de adaptação do direito às exigências da sociedade tecnológica.

Responsabilidade SubjetivaResponsabilidade ObjetivaNexo de Imputação

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.