Introdução
A compreensão adequada dos conceitos fundamentais que estruturam as teorias da causalidade é pressuposto incontornável para o enfrentamento dos desafios impostos pela inteligência artificial ao direito da responsabilidade civil. Entre esses conceitos, merecem atenção especial a teoria do risco concorrente, a causalidade alternativa em ambientes de dados distribuídos e a questão da pluralidade de fatores causais em ecossistemas tecnológicos complexos. Parece-nos que a correta delimitação desses institutos é condição prévia para a construção de um regime de responsabilidade civil que seja, ao mesmo tempo, juridicamente coerente e tecnologicamente adequado.
A Teoria do Risco Concorrente
Como desdobramento prático dos cenários marcados pela pluralidade de fatores causais e pela insuficiência das respostas legislativas que se limitam à análise das culpas envolvidas, surge a teoria do risco concorrente, defendida por Flávio Tartuce. A tese central é a de que os riscos assumidos por cada parte na relação jurídica devem impactar a forma de repartição da responsabilidade. Nesse contexto, a ideia de culpa concorrente pode ser substituída, em parte, pela ideia de riscos simultâneos ou compartilhados, evitando interpretações equivocadas sobre a presença ou ausência de culpa. Nas palavras do próprio autor, "a teoria do risco concorrente visa conformar a realidade fática relativa ao evento danoso às consequências que sejam justas para as partes envolvidas".
Essa abordagem reveste-se de particular relevância quando aplicada ao desenvolvimento e uso de sistemas de inteligência artificial. Com efeito, o ciclo de vida de um sistema de IA envolve múltiplos agentes — desenvolvedores de modelos de base, integradores, operadores e usuários —, cada um dos quais assume riscos distintos em relação ao resultado final. A teoria do risco concorrente permite distribuir a responsabilidade de forma proporcional à contribuição de cada agente para a criação do risco que se materializou no dano, solução que se alinha com o espírito do art. 945 do Código Civil, que trata da concorrência de culpas.
Causalidade Alternativa em Ambientes de Dados Distribuídos
No âmbito dos sistemas de IA que processam grandes volumes de dados em arquiteturas distribuídas, a questão da causalidade alternativa se coloca com especial acuidade. Tome-se o seguinte exemplo: três centros de pesquisa integram módulos de anonimização de dados — differential privacy, criptografia homomórfica e federated learning — em um único pipeline de big data analytics, sem que nenhum deles teste adequadamente as interações entre os módulos. Quando ocorre um vazamento grave de dados pessoais e as investigações não conseguem determinar qual módulo causou a falha, a causalidade alternativa oferece uma solução: presumir a responsabilidade de cada centro diante da incerteza sobre o agente causador.
Essa solução encontra respaldo normativo na LGPD (Lei nº 13.709/2018), cujo art. 42, § 1º, prevê a responsabilidade solidária entre controladores e operadores quando mais de um agente estiver envolvido na cadeia de tratamento que deu origem ao dano. A responsabilidade solidária, nesse contexto, é um mecanismo de proteção do titular dos dados que não se pode exigir que identifique, com precisão técnica, qual elo da cadeia foi responsável pela violação.
O Papel do PL 2338/23 na Consolidação dos Conceitos
O PL 2338/23, aprovado no Senado, representa a mais importante iniciativa legislativa brasileira voltada à regulação da inteligência artificial. Em seu texto, verificam-se disposições que dialogam diretamente com as teorias da causalidade examinadas neste estudo. O art. 19 e seguintes do Capítulo IV estabelecem obrigações de governança para sistemas de IA de alto risco, incluindo a realização de avaliações de impacto e a adoção de medidas de mitigação de riscos. O descumprimento dessas obrigações, à luz das teorias causais, constitui elemento relevante para a identificação da contribuição do agente para a produção do dano.
O art. 28 do PL 2338/23 prevê, ademais, a responsabilidade solidária entre agentes de IA, com direito de regresso proporcional ao grau de contribuição de cada um. Essa solução dialoga diretamente com a teoria do risco concorrente de Tartuce: em vez de imputar responsabilidade integral a um único agente, distribui-a proporcionalmente entre todos os que contribuíram para a criação do risco.
A Influência do AI Act
No plano comparado, o AI Act (Regulamento UE 2024/1689) introduz conceitos que enriquecem o debate sobre causalidade em sistemas de IA. O princípio da rastreabilidade — expresso nos arts. 12 e 13 do Regulamento —, que exige a manutenção de registros técnicos suficientes para permitir a identificação das causas de incidentes, constitui uma resposta regulatória direta às dificuldades probatórias inerentes à causalidade em ecossistemas de IA distribuída.
Verifica-se, ademais, que o AI Act estabelece presunção de causalidade em favor do lesado quando o sistema de IA é de alto risco e o operador não cumpriu as obrigações de transparência e supervisão humana impostas pelo Regulamento. Essa presunção, de natureza relativa (iuris tantum), transfere ao fornecedor o ônus de demonstrar que o dano não decorre das características do sistema, mecanismo que encontra paralelo na facilitação do ônus probatório prevista no art. 6º, VIII, do CDC.
O Código Civil e os Limites da Responsabilidade
O Código Civil brasileiro (Lei nº 10.406/2002) oferece, nos arts. 186, 927 e 945, o substrato normativo sobre o qual as teorias da causalidade se desenvolvem no ordenamento nacional. O art. 927, parágrafo único, ao estabelecer a responsabilidade objetiva para atividades que, por sua natureza, implicam risco para os direitos de outrem, abre espaço para que a jurisprudência reconheça o desenvolvimento de sistemas de IA de alto risco como atividade sujeita a esse regime. A aplicação da responsabilidade objetiva, combinada com as teorias da causalidade alternativa e do risco concorrente, resulta em um modelo de imputação que prescinde da prova de culpa e distribui o ônus indenizatório de forma equitativa entre os agentes envolvidos.
Considerações Finais
Os conceitos fundamentais das teorias da causalidade — risco concorrente, causalidade alternativa, pluralidade de fatores causais — revelam-se instrumentos indispensáveis para a compreensão e a resolução dos problemas de responsabilidade civil suscitados pelos sistemas de inteligência artificial. A articulação desses conceitos com os marcos normativos emergentes — PL 2338/23, AI Act, LGPD e Código Civil — aponta para um regime de responsabilidade que, embora ainda em construção, já apresenta contornos suficientemente definidos para orientar a prática jurídica. Parece-nos que o aprofundamento desse diálogo entre teoria e norma é o caminho mais seguro para a construção de soluções juridicamente coerentes e tecnologicamente adequadas.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".