Introdução
A análise aprofundada dos regimes de imputação por danos de inteligência artificial impõe a superação de uma perspectiva meramente descritiva dos institutos jurídicos existentes. É necessário confrontar os modelos doutrinários com as exigências práticas dos litígios contemporâneos, identificando suas virtudes, seus limites e as lacunas que o legislador e o intérprete devem preencher.
Este artigo aprofunda o exame dos três modelos principais de imputação — individual, em cascata e coletivo — a partir das contribuições de Adrien Bonnet, Alain Bensoussan e David Vladeck, situando-os no contexto do ordenamento brasileiro e das tendências regulatórias em curso, com especial atenção ao Código Civil, ao CDC e ao PL 2338/23.
O Regime de Responsabilidade em Cascata: Inspiração e Limites
O regime de responsabilidade em cascata, proposto por Alain Bensoussan, inspira-se em sistemas já conhecidos do direito — a responsabilidade por produtos defeituosos e a responsabilidade por conteúdos ilícitos online. O ponto de partida é a constatação de que, em certas cadeias de produção e distribuição de tecnologias de IA, torna-se difícil ou impossível identificar o responsável primário pelo dano, seja pela multiplicidade de agentes envolvidos, seja pela opacidade do processo de desenvolvimento e operação do sistema.
O modelo em cascata admite a responsabilização subsidiária de diferentes atores, obrigando cada um deles a responder pelos danos que não tenham sido reparados pelo agente imediatamente anterior na cadeia. Essa solução tem o mérito de assegurar à vítima sempre um responsável solvente a alcançar, independentemente da insolvência ou da impossibilidade de identificação do causador primário do dano.
No direito brasileiro, o modelo em cascata encontra parcial correspondência na regra do art. 13 do CDC, que prevê a responsabilidade subsidiária do comerciante pelo fato do produto nas hipóteses em que o fabricante, construtor, produtor ou importador não puder ser identificado ou não estiver presente na cadeia comercial. Contudo, o modelo cadenciado do CDC é limitado ao âmbito consumerista e opera de forma mais restrita do que a proposta de Bensoussan, que se estende a toda a cadeia de desenvolvimento e operação da IA.
A principal crítica ao modelo em cascata reside no risco de sobrecarregar um único agente com responsabilidades que, em rigor, seriam compartilhadas por múltiplos atores. Quando as contribuições causais são indeterminadas — como frequentemente ocorre em sistemas de IA dotados de autoaprendizado —, a atribuição integral do dano ao último agente da cadeia pode gerar injustiças e desestimular a participação de atores auxiliares no ecossistema de IA.
A Responsabilidade Coletiva: Common Enterprise Liability e Direito Brasileiro
A responsabilidade coletiva, adaptada por David Vladeck a partir da common enterprise liability norte-americana, representa uma alternativa para as situações em que múltiplos agentes participam conjuntamente do processo de concepção e operação da IA, sem que seja possível — ou mesmo necessário — individualizar a contribuição de cada um para o dano.
Vladeck sustenta que a common enterprise liability permite ao direito impor responsabilidade conjunta sem que seja indispensável "expor e lidar com todos os detalhes que permitiriam atribuir todos os aspectos de um dano a uma ou outra parte; basta que, na busca de um objetivo comum, as partes tenham cometido um erro". Essa abordagem é especialmente adequada para os casos de desenvolvimento colaborativo de sistemas de IA — plataformas de código aberto, consórcios de pesquisa, ecossistemas de aplicativos —, nos quais a responsabilização individual estrita seria de difícil operacionalização.
Parece-nos, contudo, que a responsabilidade coletiva, apesar de sua abrangência, enfrenta problemas de implementação quando múltiplos agentes participam do processo de concepção e operação da IA com contribuições muito distintas. Bonnet aponta, nesse sentido, a necessidade de "pools de responsáveis" com repartição prévia dos riscos — mecanismo que pressupõe acordos contratuais sofisticados entre os participantes do ecossistema de IA, cujo alcance prático pode ser limitado, especialmente em relação a atores de menor porte ou em mercados emergentes como o brasileiro.
No ordenamento nacional, a responsabilidade solidária dos coautores do dano, prevista no art. 942, parágrafo único, do Código Civil, e a responsabilidade solidária da cadeia de fornecedores, prevista no art. 7º, parágrafo único, do CDC, constituem os fundamentos normativos mais próximos do modelo coletivo. A aplicação desses dispositivos aos litígios de IA exigirá, todavia, interpretação extensiva e adaptativa, tendo em vista as peculiaridades do ecossistema tecnológico.
A Funcionalidade do Nexo de Imputação na Era da IA
Verificou-se, ao longo desta análise, que a funcionalidade do nexo de imputação, no contexto da IA, não se limita à pergunta "quem causou o dano?", mas expande-se para "quem deve responder pelos riscos e em que medida?". Essa reformulação é essencial para evitar que a complexidade técnica e a opacidade dos sistemas de IA conduzam à impunidade dos agentes econômicos responsáveis pela criação e operação dessas tecnologias.
A responsabilidade objetiva, a presunção de culpa e os modelos de imputação coletiva e em cascata servem, cada um a seu modo, para redistribuir os custos dos danos de IA de uma forma que reflita, com maior precisão, a capacidade de cada agente de controlar, prevenir e mitigar os riscos associados à tecnologia que desenvolve ou opera. Essa redistribuição não é apenas uma questão de justiça corretiva — reparar o dano causado a uma vítima específica —, mas também de justiça distributiva e preventiva: induzir os agentes econômicos a internalizar os custos dos riscos que criam e a adotar as melhores práticas de desenvolvimento e operação de IA.
O PL 2338/23 avança nessa direção ao prever, para os sistemas de alto risco, responsabilidade objetiva com distribuição proporcional entre os agentes da cadeia. Contudo, a efetividade desse regime depende da criação de critérios claros para a classificação dos sistemas de IA por nível de risco e de mecanismos processuais que facilitem a produção de prova técnica nos litígios de responsabilidade civil.
A LGPD e o Direito à Explicabilidade Algorítmica
A Lei Geral de Proteção de Dados (LGPD — Lei nº 13.709/2018) introduz, no art. 20, o direito do titular à revisão de decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais — incluindo decisões produzidas por sistemas de IA. Esse direito à explicabilidade algorítmica tem relevância direta para o nexo de imputação: a impossibilidade de explicar a decisão do sistema pode configurar defeito de transparência imputável ao controlador, atraindo a responsabilidade objetiva ou a presunção de culpa previstas nos arts. 42 e 43 da própria LGPD.
Além disso, a LGPD estabelece, em seu art. 42, §2º, que o juiz, no processo civil, poderá inverter o ônus da prova a favor do titular dos dados, quando for verossímil a alegação ou quando a vítima for hipossuficiente — em clara inspiração no modelo consumerista do CDC. Essa previsão reforça a tendência do ordenamento brasileiro de adotar mecanismos de facilitação probatória nos litígios envolvendo tecnologias complexas, aliviando o ônus da vítima sem eliminar a possibilidade de defesa do agente responsável.
Implicações Práticas para o Contencioso de IA
Do ponto de vista prático, a análise aprofundada dos regimes de imputação por danos de IA revela alguns pontos críticos para o contencioso que se avizinha. Em primeiro lugar, a definição do agente responsável — desenvolvedor, fornecedor, operador ou usuário — dependerá, em cada caso, da análise do grau de controle efetivo exercido sobre o sistema e do nível de risco que a atividade representa para terceiros.
Em segundo lugar, a prova do dano e do nexo causal será frequentemente dependente de perícia técnica especializada, capaz de reconstruir o funcionamento do sistema de IA e identificar as causas do resultado danoso. A adoção de mecanismos processuais de facilitação probatória — inversão do ônus, presunções judiciais, ordens de exibição de documentação técnica — será indispensável para garantir a efetividade da tutela jurisdicional.
Em terceiro lugar, a multiplicidade de agentes envolvidos no ecossistema de IA exigirá, com frequência, a formação de litisconsórcio passivo e a aplicação dos regimes de solidariedade e subsidiariedade previstos no Código Civil e no CDC, adaptados às peculiaridades das cadeias de valor tecnológicas.
Conclusão
A análise aprofundada dos regimes de imputação por danos de IA confirma que os modelos doutrinários disponíveis — individual, em cascata e coletivo — oferecem respostas parciais e complementares para os desafios colocados pela tecnologia. Nenhum deles, isoladamente, é suficiente para abarcar toda a complexidade do ecossistema de IA. O ordenamento brasileiro dispõe de bases normativas sólidas — no Código Civil, no CDC, na LGPD e no PL 2338/23 —, mas a construção de um regime coerente e efetivo dependerá da colaboração entre legisladores, doutrinadores, julgadores e especialistas técnicos, em um processo contínuo de adaptação do direito às exigências da sociedade tecnológica.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".