Introdução
A atribuição de responsabilidade civil por danos causados por sistemas de inteligência artificial exige a revisão e a reelaboração de conceitos fundamentais do direito das obrigações. O nexo de imputação — entendido como o vínculo normativo que justifica a atribuição do dever de reparar a determinado sujeito — não pode ser tratado, nesses casos, como simples prolongamento dos institutos tradicionais da culpa ou do risco. As características peculiares dos sistemas de IA, especialmente sua autonomia, opacidade e capacidade de autoaprendizado, reclamam categorias conceituais próprias ou, ao menos, uma releitura das existentes.
O presente artigo examina os conceitos fundamentais que informam os principais modelos doutrinários de imputação por danos de IA, com especial atenção às classificações propostas pela literatura jurídica comparada — modelos individual, em cascata e coletivo — e às suas repercussões no ordenamento brasileiro, à luz do Código Civil, do CDC e do PL 2338/23.
O Modelo de Responsabilidade Individual: Critérios de Poder Efetivo e Estatutários
O modelo de responsabilidade individual constitui o ponto de partida doutrinário mais natural, por guardar maior proximidade com os institutos tradicionais da responsabilidade civil. Nesse modelo, a imputação recai sobre um único sujeito, identificado a partir de critérios de poder efetivo ou de critérios estatutários.
Os critérios de poder efetivo distribuem-se em três subcategorias: o poder de governo, atribuível aos criadores ou desenvolvedores do sistema, que corresponde ao controle sobre a concepção e o treinamento do algoritmo; o poder de acionamento, relacionado ao uso efetivo da IA pelo operador ou usuário; e o controle físico, vinculado à supervisão direta da tecnologia no ambiente em que opera.
Os critérios estatutários, por sua vez, fixam-se em relações jurídicas específicas — como as do produtor, criador ou usuário — buscando alinhar o papel desempenhado pelo agente ao risco assumido. Essa abordagem tem afinidade com o regime de responsabilidade do fornecedor pelo fato do produto, previsto no art. 12 do CDC, que atribui ao fabricante, produtor, construtor e importador a responsabilidade objetiva pelos danos causados por produtos defeituosos, independentemente de culpa.
No âmbito do Código Civil de 2002, a responsabilidade pelo fato de terceiro (art. 932) e a cláusula geral de responsabilidade objetiva pelo risco da atividade (art. 927, parágrafo único) fornecem as bases para imputações individuais calcadas tanto em critérios de controle efetivo quanto em posições jurídicas formalmente atribuídas.
O Expert Group e o Modelo Híbrido de Imputação
No plano comparado, o Expert Group on Liability and New Technologies da Comissão Europeia propõe um modelo híbrido de responsabilidade objetiva e gestão de riscos, que pode ser compreendido como uma variante sofisticada do modelo individual. Segundo essa proposta, a responsabilidade objetiva deve recair sobre quem administra e controla os riscos inerentes à disponibilização da IA no mercado, enquanto a gestão de riscos é atribuída ao ator mais próximo causalmente do evento danoso, a depender do tipo de mau funcionamento verificado.
Verificou-se que essa abordagem tem o mérito de distinguir dois momentos logicamente distintos: a responsabilidade pela introdução do risco no mercado — que recai sobre o desenvolvedor ou fabricante — e a responsabilidade pela concretização do dano em situação específica — que pode recair sobre o operador ou usuário que se encontra em melhor posição para evitá-lo. Trata-se de uma imputação funcionalizada, orientada não apenas por critérios causais, mas pela capacidade de cada ator de antecipar, reduzir ou eliminar os riscos inerentes ao sistema.
O Modelo de Responsabilidade em Cascata
O regime de responsabilidade em cascata, proposto por Alain Bensoussan, inspira-se nos sistemas de responsabilidade por produtos defeituosos e por conteúdos ilícitos online. Admite a responsabilização subsidiária de diferentes atores, a partir da dificuldade de identificar o primeiro responsável ou de obter a reparação diretamente.
Esse modelo tem especial pertinência nas situações em que a cadeia de produção e distribuição da IA é extensa e envolve múltiplos agentes — desenvolvedores de modelos de base, fornecedores de infraestrutura computacional, integradores de soluções e usuários corporativos —, dificultando a identificação do responsável primário. A responsabilização em cascata, nesse contexto, assegura que a vítima sempre terá um responsável solvente a alcançar, ainda que subsidiariamente.
Contudo, o modelo apresenta riscos de sobrecarregar um único agente quando as contribuições causais são indeterminadas, o que pode acarretar injustiças ou desestímulo à inovação. Parece-nos necessário, por isso, que a responsabilidade em cascata seja calibrada por critérios claros de gradação de responsabilidades, evitando que o agente subsidiário responda integralmente por danos para os quais sua contribuição foi marginal.
No direito brasileiro, a responsabilidade solidária dos fornecedores na cadeia de consumo (art. 7º, parágrafo único, do CDC) aproxima-se, em alguns aspectos, do modelo em cascata — embora opere de forma simultânea, e não subsidiária. A harmonização entre esses instrumentos é campo fértil para a elaboração doutrinária e jurisprudencial.
O Modelo de Responsabilidade Coletiva
A responsabilidade coletiva, adaptada por David Vladeck a partir da common enterprise liability norte-americana, parte da premissa de que todos os que participam de um empreendimento comum podem ser solidariamente responsáveis pelos danos decorrentes de suas atividades conjuntas. Vladeck sustenta que o direito pode "impor uma responsabilidade conjunta sem ter que expor e lidar com todos os detalhes que permitiriam atribuir todos os aspectos de um dano a uma ou outra parte; basta que, na busca de um objetivo comum, as partes tenham cometido um erro".
Parece-nos que a responsabilidade coletiva guarda relação de proximidade — mas não de identidade — com a teoria da causalidade alternativa, examinada no Capítulo 2. A causalidade alternativa cuida de um elemento específico da imputação — o nexo causal —, e serve como método lógico-indutivo nas hipóteses em que diversas condutas, tecnicamente relevantes, concorreram para o fato danoso sem que se possa determinar qual foi determinante. A responsabilidade coletiva, por sua vez, prescinde dessa análise causal detalhada, atribuindo responsabilidade solidária com base na participação no empreendimento comum.
No contexto brasileiro, o art. 942, parágrafo único, do Código Civil, que estende a solidariedade aos coautores do dano, e o art. 7º, parágrafo único, do CDC, que prevê a responsabilidade solidária de todos os envolvidos na cadeia de produção e distribuição, oferecem suporte normativo para a responsabilidade coletiva nos litígios envolvendo sistemas de IA desenvolvidos e operados por múltiplos agentes.
Implicações para o Nexo de Imputação em IA
A pluralidade de modelos doutrinários de imputação revela que a questão central, no contexto da IA, não é mais "quem causou o dano?", mas "quem deve responder pelos riscos e em que medida?". Essa reformulação é fundamental para evitar que a complexidade técnica e a opacidade dos sistemas de IA conduzam à impunidade dos agentes econômicos responsáveis pela criação e operação dessas tecnologias.
O PL 2338/23 esboça uma resposta a essa questão ao prever regimes diferenciados conforme o nível de risco e ao distribuir a responsabilidade proporcionalmente à participação de cada agente no dano. Contudo, a efetividade desse regime dependerá, em larga medida, da capacidade do Judiciário e das autoridades regulatórias de compreender as peculiaridades técnicas dos sistemas de IA e de aplicar os critérios normativos com a flexibilidade exigida pela realidade tecnológica.
Conclusão
Os conceitos fundamentais do nexo de imputação por danos de IA — modelos individual, em cascata e coletivo; critérios de poder efetivo e estatutários; responsabilidade híbrida e gestão de riscos — formam um repertório analítico indispensável para o intérprete que se defronta com os litígios dessa natureza. No ordenamento brasileiro, a articulação entre o Código Civil (arts. 927, 932 e 942), o CDC (arts. 7º, 12 e 14) e o PL 2338/23 oferece as bases para uma resposta normativa adequada, que deverá ser continuamente aprimorada pela doutrina, pela jurisprudência e pelo próprio legislador à medida que os sistemas de IA evoluem e os danos por eles causados se tornam mais frequentes e complexos.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".