A análise prática das concausas nos sistemas de inteligência artificial revela cenários de complexidade causal que dificilmente encontram precedentes na dogmática clássica da responsabilidade civil. Quando múltiplos agentes — equipes de desenvolvimento independentes, fornecedores de módulos de IA, operadores de plataformas e usuários finais — contribuem para um resultado danoso, a identificação do nexo causal relevante deixa de ser uma operação lógica simples e torna-se um exercício de reconstrução de processos técnicos frequentemente opacos.
Um exemplo elucidativo pode ser extraído do desenvolvimento de sistemas de detecção de intrusão (IDS) baseados em redes neurais profundas — modelos capazes de aprender padrões complexos em grandes quantidades de dados. Quando duas ou mais equipes alteram parâmetros e regras de filtragem no código-fonte do IDS de forma independente e sem coordenação, resultam configurações conflitantes. Assim que o sistema é implantado, gera tanto falsos positivos (bloqueando usuários legítimos) quanto falsos negativos (permitindo acesso a invasores). Esses erros causam prejuízos graves em setores cruciais da empresa. Nesse caso, duas ou mais pessoas — as equipes de desenvolvimento — atuam em um mesmo fato gerador de dano: a configuração incorreta do IDS. Estamos diante de causalidade plural simultânea, em que as condutas independentes convertem-se em causas concorrentes do mesmo resultado danoso.
A causalidade plural concorrente divide-se, na sistematização de Fernando Noronha (Direito das Obrigações, 2010, pp. 642-643), entre o concurso entre o fato do responsável e o caso fortuito ou a força maior, a concorrência entre fatos do responsável e do lesado, e o concurso de fatos distintos de várias pessoas. O primeiro desses modelos — concurso entre o fato do responsável e o caso fortuito — trata dos casos em que condutas já predispostas a causar um dano se relacionam com fatores externos que potencializam os resultados, podendo ou não romper o nexo causal.
Para ilustrar, consideremos um sistema de IA de controle de tráfego aéreo que apresenta falhas de programação em seu algoritmo de aprendizado por reforço, ocasionando leituras incorretas dos parâmetros de voo. Ao mesmo tempo, ocorre um fenômeno meteorológico extremo — furacão ou tempestade geomagnética — totalmente imprevisível e fora do padrão, que afeta radicalmente a estabilidade das aeronaves. A conjunção do erro técnico (fato do responsável) com o fenômeno inevitável (força maior) leva a pousos de emergência mal executados e a danos a várias aeronaves. A questão jurídica central é: a força maior rompe integralmente o nexo causal, eximindo o desenvolvedor do sistema de IA? A resposta não é automática. Se as falhas de programação preexistiam e eram suficientes, por si sós, para gerar risco elevado, a força maior funciona como concausa que agrava o resultado, mas não elimina a responsabilidade do desenvolvedor pela contribuição causal de sua conduta.
No que Noronha apresenta como concurso entre os fatos do responsável pelo dano e da pessoa lesada, temos os próprios desdobramentos do art. 945 do Código Civil: "Se a vítima tiver concorrido culposamente para o evento danoso, a sua indenização será fixada tendo-se em conta a gravidade de sua culpa em confronto com a do autor do dano." Toma-se como exemplo um aplicativo médico movido a redes neurais profundas para diagnóstico de doenças raras. O desenvolvedor negligencia a validação contínua do modelo, deixando de realizar atualizações periódicas necessárias à manutenção da acurácia. O médico usuário, por sua vez, aplica o diagnóstico gerado pelo sistema sem qualquer verificação clínica independente — ignorando a advertência expressa no manual de uso de que o sistema não substitui o julgamento clínico especializado. Sobrevém dano ao paciente.
Nesse cenário, verifica-se concorrência de culpas: o desenvolvedor contribuiu com a falha técnica não corrigida; o médico contribuiu com o uso negligente da ferramenta. A indenização deverá ser distribuída proporcionalmente à gravidade de cada contribuição causal — critério que exige análise técnica e jurídica cuidadosa, pois tanto a quantificação da falha de programação quanto a avaliação do desvio da conduta médica padrão envolvem expertise especializada que os tribunais precisarão buscar em perícias técnicas adequadas.
Cabe ressaltar que, no âmbito consumerista, a lógica da culpa concorrente apresenta particularidades. O Código de Defesa do Consumidor não prevê, em regra, a redução proporcional da indenização por culpa concorrente do consumidor — admitindo apenas a culpa exclusiva do consumidor ou de terceiro como excludente plena do nexo causal (art. 12, §3º, CDC). Contudo, a jurisprudência do Superior Tribunal de Justiça tem admitido, em casos específicos, a consideração da conduta do consumidor como fator de mitigação do valor indenizatório, especialmente quando seu comportamento ultrapassou os limites razoáveis do uso esperado do produto.
O concurso de fatos distintos de várias pessoas — a terceira modalidade — é provavelmente a mais frequente no contexto de sistemas de IA desenvolvidos em cadeia. Uma plataforma de análise de crédito desenvolvida por duas empresas de software que acaba gerando pontuações distorcidas é exemplo ilustrativo: a primeira empresa fornece um módulo de IA com viés preexistente (erro estatístico no conjunto de treinamento); a segunda desenvolve a interface de interação que reforça tal viés ao agregar dados incompletos. Ambas as falhas, combinadas, resultam no mesmo dano — reprovação injusta de crédito. Há coparticipação com pluralidade de ofensores, pois cada parte concorre para o resultado lesivo sem que se saiba exatamente qual parcela de responsabilidade cabe a cada qual.
Nesses casos, o regime de solidariedade passiva previsto no art. 942 do Código Civil protege a vítima, que pode acionar qualquer dos responsáveis pela integralidade do dano — cabendo, entre os codevedores, a discussão sobre a repartição interna do ônus. No ambiente consumerista, o art. 7º, parágrafo único, do CDC reforça essa lógica ao impor responsabilidade solidária a todos os ofensores em casos de danos nas relações de consumo. A gestão dos riscos de litígio regressivo entre codesenvolvedor, integrador e operador — matéria ainda pouco desenvolvida na jurisprudência brasileira — constitui um dos desafios práticos mais urgentes da responsabilidade civil por sistemas de inteligência artificial.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".