A análise das concausas em sistemas de inteligência artificial conduz, inevitavelmente, à reflexão sobre os limites do ordenamento jurídico vigente e à formulação de propostas que aprimorem a tutela das vítimas de danos algorítmicos. A categoria da causa virtual — que consiste em condições que potencialmente gerariam dano, mas que não culminam no resultado porque uma causa real se interpõe — apresenta-se como ponto de partida fértil para essa reflexão.
Causa Virtual e Responsabilidade Latente
A causa virtual — também denominada causalidade hipotética — não produz consequências jurídicas autônomas em relação ao dano efetivamente verificado, mas pode ser relevante na análise da responsabilidade por produtos defeituosos. Por exemplo, uma startup que desenvolve um robô de limpeza autônomo com inteligência artificial que, devido a um bug, poderia causar curtos-circuitos perigosos (causa virtual). Antes de acontecer qualquer incêndio, um funcionário, ao manusear incorretamente o robô, liga-o perto de uma fiação exposta e provoca de fato um princípio de incêndio (causa real). Nesse cenário, a causa virtual não chega a se concretizar sozinha; o incêndio é causado diretamente pelo descuido do funcionário.
Parece-nos, entretanto, que a mera existência de um defeito latente — a causa virtual — já pode fundamentar obrigações legais independentes do dano concreto. O art. 10, §1º, do Código de Defesa do Consumidor prevê a obrigação do fornecedor de comunicar imediatamente às autoridades competentes e aos consumidores a nocividade ou periculosidade de produtos ou serviços que venha a ter conhecimento depois de sua colocação no mercado. Essa obrigação de recall não pressupõe a ocorrência de um dano efetivo, mas a mera potencialidade de dano — o que corresponde, em essência, à noção de causa virtual.
O PL 2.338/2023 avança nessa direção ao propor, para sistemas de IA de alto risco, obrigações de monitoramento contínuo pós-implantação e de comunicação às autoridades de supervisão quando forem identificados riscos não previstos no processo de conformidade. Essa abordagem regulatória transforma a causa virtual de mera categoria doutrinária em gatilho de obrigações legais concretas, antecipando a intervenção do Estado antes que o dano se concretize.
O Problema do Anonimato na Cadeia de Valor Algorítmica
Nos cenários de desenvolvimento e operação de sistemas de inteligência artificial, a fragmentação da cadeia de valor gera o que se poderia denominar de "anonimato funcional" dos agentes: cada ator — desenvolvedor de modelo base, fornecedor de dados de treinamento, integrador de API, operador de plataforma — desempenha uma função específica que, isoladamente, parece insuficiente para gerar responsabilidade, mas que, em conjunto, contribui de forma decisiva para o resultado danoso.
Verificou-se que essa fragmentação não é acidental, mas frequentemente decorre de escolhas deliberadas de arquitetura empresarial destinadas a minimizar a exposição regulatória e jurídica de cada participante da cadeia. A utilização de contratos de licenciamento que transferem responsabilidade para o licenciado, de termos de serviço que limitam a responsabilidade do fornecedor de modelo base, e de estruturas de franquia ou white label que obscurecem a identidade do desenvolvedor original são manifestações concretas desse fenômeno.
Propostas para a Superação do Anonimato
Parece-nos que a superação do problema do anonimato funcional na cadeia de valor algorítmica exige, ao menos, três ordens de medidas complementares. Em primeiro lugar, a imposição de obrigações de registro e identificação dos agentes da cadeia de valor de sistemas de IA de alto risco, de modo que seja possível rastrear, a qualquer momento, quem desenvolveu, treinou, integrou e opera determinado sistema. Essa proposta dialoga com o modelo de "Declaração de Conformidade" previsto no AI Act europeu, que exige a identificação do fornecedor responsável como condição para a colocação do sistema no mercado.
Em segundo lugar, a consagração de um regime de responsabilidade solidária abrangente entre todos os agentes da cadeia de valor de sistemas de IA de alto risco, com presunção relativa de contribuição causal de cada um deles para os danos verificados. Esse regime poderia ser modulado pelo PL 2.338/2023, que já prevê a responsabilidade solidária entre fornecedor e operador, mas que poderia ser estendido aos fornecedores de componentes críticos — dados de treinamento, modelos base, APIs — que contribuem de forma relevante para o funcionamento do sistema como um todo.
Em terceiro lugar, a criação de fundos setoriais de compensação — semelhantes aos existentes no setor de energia nuclear e de transporte aéreo — que permitam o ressarcimento imediato das vítimas independentemente da identificação de todos os agentes da cadeia causal. Esse mecanismo, embora mais oneroso para o setor, garantiria a tutela efetiva das vítimas mesmo nos casos em que a fragmentação da cadeia causal torne inviável a identificação de todos os responsáveis.
A Concausalidade na Perspectiva do Direito Comparado
O direito europeu oferece perspectivas relevantes para essas propostas. A Diretiva de Responsabilidade pela IA (proposta AI Liability Directive, COM/2022/496) prevê, para os sistemas de IA de alto risco, a presunção de nexo causal quando a vítima demonstre que o sistema violou deveres de conformidade previstos no AI Act e que essa violação foi adequada a causar o tipo de dano verificado. Essa estrutura normativa — que combina presunção de causalidade com prova de violação de deveres de conformidade — representa um modelo mais equitativo do que a simples inversão do ônus probatório, pois ancora a presunção em elementos objetivos verificáveis.
Parece-nos que o PL 2.338/2023 poderia se beneficiar de estrutura normativa semelhante, estabelecendo que a violação de deveres de conformidade previstos no próprio projeto — como a obrigação de avaliação de impacto, de registro técnico e de comunicação de incidentes — gera presunção relativa de nexo causal em favor da vítima que demonstre a ocorrência do dano no contexto de operação do sistema.
Reflexões Finais sobre a Concausalidade em IA
A análise das concausas aplicadas a sistemas de inteligência artificial revela que os instrumentos clássicos da responsabilidade civil — solidariedade passiva, percentuais de culpa, teoria da causalidade adequada — são necessários, mas não suficientes para garantir tutela efetiva às vítimas de danos algorítmicos. A insuficiência decorre não de uma falha conceitual dessas categorias, mas das características estruturais dos sistemas de IA: opacidade, autonomia decisória, fragmentação da cadeia de valor e dificuldade de rastreamento causal.
As propostas que emergem dessa análise — obrigações de registro e identificação de agentes, regime de solidariedade ampliada, presunção de nexo causal vinculada à violação de deveres de conformidade e fundos setoriais de compensação — não são mutuamente excludentes, mas complementares. A sua combinação inteligente, em um marco regulatório coerente, poderia transformar o PL 2.338/2023 em instrumento normativo à altura dos desafios que a inteligência artificial impõe à responsabilidade civil contemporânea.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".