Voltar ao Blog
Nexo de CausalidadeCapítulo 2

As Concausas e a Multiplicidade de Agentes: Impactos e Consequências

Impactos e consequências das concausas na responsabilidade civil: solidariedade no CDC, regime civil comum, excludentes de responsabilidade e danos algorítmicos em IA.

Alessandro Lavorante 5 de novembro de 2024 7 min de leitura

Os impactos e consequências do estudo das concausas e da multiplicidade de agentes projetam-se com clareza sobre o regime de solidariedade nas relações de consumo e sobre a distinção que o Código Civil traça em relação ao regime comum. A análise dessas consequências é indispensável para compreender como o ordenamento jurídico brasileiro distribui o ônus da reparação entre os múltiplos agentes que contribuem para um dano decorrente da operação de sistemas de inteligência artificial.

A Solidariedade no CDC e sua Extensão à Cadeia de IA

Nas relações de consumo, a solidariedade é regra geral, inclusive quando se tratar de vício do produto ou serviço. Fabricantes, fornecedores e demais participantes da cadeia podem responder de modo solidário, assegurando ampla tutela ao consumidor. Essa solidariedade decorre da lógica protetiva do sistema consumerista: o consumidor não tem acesso às informações necessárias para identificar qual agente específico da cadeia de fornecimento contribuiu para o defeito que lhe causou o dano, razão pela qual a lei lhe confere o direito de acionar qualquer deles.

No contexto dos sistemas de IA comercializados como produtos ou serviços ao consumidor, essa solidariedade abrange, em princípio, o desenvolvedor do modelo de base, o fornecedor de dados de treinamento, o integrador da solução e o comerciante que a disponibiliza ao usuário final. Parece-nos que a extensão da solidariedade ao fornecedor de modelos de base — como as grandes empresas de IA que licenciam seus modelos para terceiros integrarem em produtos próprios — é uma das questões mais debatidas na interface entre o direito do consumidor e a regulação de IA.

Há doutrinadores que defendem a responsabilidade solidária do comerciante também nos casos de defeito de concepção do produto, mas essa corrente não é majoritária. A corrente predominante distingue entre o defeito de concepção — imputável ao fabricante — e o defeito de informação — que pode ser imputável ao comerciante que não repassou adequadamente os alertas fornecidos pelo fabricante. Parece-nos que essa distinção pode ser produtivamente aplicada aos sistemas de IA: o desenvolvedor do modelo responde pelo defeito de concepção (viés algorítmico, falha de arquitetura), enquanto o integrador ou o comerciante pode ser solidariamente responsável por defeitos de informação (omissão de limitações do sistema, ausência de alertas sobre contextos de uso inadequados).

O Regime Civil Comum e a Presunção de Responsabilidade Individual

Diversamente do que ocorre no CDC, fora do âmbito consumerista a solidariedade não se presume. O art. 265 do Código Civil consagra a necessidade de lei ou vontade das partes para a configuração do vínculo solidário, ao passo que o art. 942 do mesmo diploma, diferentemente do CDC, não prescreve uma presunção de hipossuficiência da vítima que justifique a solidariedade como regra. No plano civil comum, presume-se que cada agente responda apenas pelos próprios atos, salvo disposição legal ou convenção em contrário.

Verificou-se que essa assimetria entre o regime consumerista e o civil comum tem consequências práticas significativas para a tutela das vítimas de danos por sistemas de IA em contextos não consumeristas — como contratos B2B de fornecimento de soluções algorítmicas, sistemas de IA utilizados em procedimentos administrativos ou judiciais, e plataformas de intermediação entre agentes empresariais. Nesses contextos, a vítima que não se enquadrar no conceito de consumidor terá de demonstrar a contribuição causal de cada agente individualmente para obter reparação, o que, diante da fragmentação da cadeia de valor algorítmica, representa um ônus probatório frequentemente intransponível.

Impactos Sistêmicos: O Problema das Excludentes de Responsabilidade

A análise das concausas, como verificado ao longo deste estudo, permite abarcar desde situações simples de coparticipação até cenários em que diversos agentes e eventos — preexistentes, concomitantes ou supervenientes — se sobrepõem na gênese do dano. Entretanto, mesmo reconhecendo que múltiplos fatores podem concorrer para o resultado, é preciso apurar em quais casos o liame causal pode ser total ou parcialmente rompido.

Se, por um lado, a responsabilidade solidária ou concorrente garante ampla tutela ao lesado, por outro, há hipóteses em que a lei reconhece a imprevisibilidade ou inevitabilidade de certos fatos, bem como a ingerência exclusiva de terceiros ou da própria vítima. Em sistemas de IA, a imprevisão de comportamentos algorítmicos — decorrente da natureza estocástica de modelos de aprendizado profundo — ou a manipulação indevida por parte do usuário são exemplos típicos que ensejam a discussão sobre rompimento do nexo causal.

Parece-nos que a resposta mais coerente do ordenamento jurídico a esses casos é a distinção entre o fortuito interno — inerente ao risco da atividade e, portanto, incapaz de romper o nexo causal — e o fortuito externo — absolutamente alheio à esfera de controle do agente e, portanto, apto a eximir de responsabilidade. Um comportamento inesperado de um modelo de IA que resulte de um prompt de usuário elaborado para contornar os filtros de segurança do sistema pode, dependendo das circunstâncias, ser qualificado como fato exclusivo de terceiro, apto a romper o nexo causal entre o desenvolvedor e o dano verificado.

Consequências para o PL 2.338/2023 e o AI Act

As consequências práticas do estudo das concausas para os marcos regulatórios em construção são substanciais. O PL 2.338/2023 estabelece um regime de responsabilidade objetiva para sistemas de IA de alto risco, com presunção relativa de nexo causal em favor da vítima — o que representa uma escolha deliberada de fortalecer a tutela das vítimas às expensas de uma maior exposição dos agentes do setor. Parece-nos que essa escolha é justificada pelo estágio atual de desenvolvimento tecnológico, em que a assimetria informacional e técnica entre os desenvolvedores de IA e as potenciais vítimas é estruturalmente elevada.

O AI Act europeu (Regulamento (UE) 2024/1689), por sua vez, adota uma abordagem complementar: ao impor obrigações de conformidade técnica, documentação e transparência aos sistemas de alto risco, cria um conjunto de evidências objetivas que facilitam a apuração do nexo causal em eventual ação de responsabilidade civil. A combinação dessa abordagem regulatória preventiva com o regime de presunção de nexo causal proposto pela Diretiva de Responsabilidade pela IA representa, na nossa perspectiva, o modelo mais equilibrado disponível no direito comparado.

A Tutela Coletiva como Resposta aos Danos em Massa

Um aspecto frequentemente negligenciado na análise individual das concausas é o potencial de danos em massa decorrentes de sistemas de IA. Quando um modelo de IA com viés algorítmico é utilizado em larga escala — por exemplo, em sistemas de concessão de crédito, de triagem de candidatos a emprego ou de precificação de seguros —, o dano individual pode ser relativamente pequeno, mas o dano coletivo pode ser de proporções extraordinárias.

O Código de Defesa do Consumidor, nos arts. 81 e seguintes, e a Lei da Ação Civil Pública (Lei n.º 7.347/1985) oferecem instrumentos processuais para a tutela coletiva desses danos em massa. Parece-nos que a combinação desses instrumentos com o regime de responsabilidade objetiva proposto pelo PL 2.338/2023 poderia criar um sistema de tutela coletiva eficaz para os danos algorítmicos de massa, especialmente quando a vítima individual não dispõe de recursos ou incentivos suficientes para litigar individualmente.

Conclusão: A Síntese dos Impactos e a Agenda Futura

A análise dos impactos e consequências das concausas e da multiplicidade de agentes no contexto dos sistemas de inteligência artificial revela que o ordenamento jurídico brasileiro dispõe de um arcabouço normativo robusto — Código Civil, CDC, LGPD e o emergente PL 2.338/2023 —, mas que a sua efetividade depende de interpretação sistemática e contextualizada à realidade técnica dos sistemas algorítmicos.

A agenda futura inclui, necessariamente, a consolidação jurisprudencial dos critérios de imputação causal em casos envolvendo IA, o desenvolvimento de mecanismos processuais adequados para a produção de prova técnica em ações de responsabilidade por danos algorítmicos, e a criação de obrigações regulatórias de documentação e rastreabilidade que facilitem a reconstrução das cadeias causais. Passaremos, então, a examinar as excludentes que podem resguardar o fornecedor ou o desenvolvedor de obrigações reparatórias indevidas, completando assim o quadro analítico necessário para uma compreensão sistemática da responsabilidade civil por danos de inteligência artificial.

ConcausasAgentesCausalidade Múltipla

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.