teoria desemboca em um sistema pluralista, onde diferentes correntes são evocadas conforme as peculiaridades de cada caso385. Aliás, essa necessidade de diferenciar onde termina o risco assumido pelo agente e onde começa a imprevisibilidade absoluta de um fator externo torna-se ainda mais crítica em cenários de IA, onde o comportamento autônomo do algoritmo pode tanto expandir como mitigar a caracterização de nexo causal. Destarte, se, por um lado, não existe consenso universal sobre a aplicação estrita de uma única teoria do nexo causal, por outro, desponta uma tendência de conjugação de fundamentos: a causalidade adequada funciona como filtro inicial para eliminar causas acessórias; a teoria do escopo de proteção da norma acrescenta limites valorativos; e os dispositivos do AI Act e da Proposta de Diretiva Europeia sobre Responsabilidade Civil da IA reforçam a facilitação probatória e a presunção de culpa ou responsabilidade quando o sistema for de alto risco ou quando o agente tiver maior capacidade de supervisão e gerenciamento do algoritmo. Nessa linha, o PL 2338/23, ao prever diferentes graus de responsabilização e especificar condutas exigíveis dos desenvolvedores e operadores, aproxima-se das concepções de risco proibido e do dever de vigilância encontradas nas legislações europeias, reproduzindo, ainda que em outro contexto, a ideia de que, para a configuração do liame causal, o não cumprimento das obrigações legais de segurança do sistema consubstancia o nexo entre conduta e dano. Assim, enquanto a teoria da equivalência das condições continua sendo, para muitos, como base usualmente empregada para aferição inicial de causalidade, as legislações (ao menos a brasileira e as da União Europeia) caminham no sentido de criar normas específicas que, à semelhança da causalidade adequada e da imputação objetiva, filtram as hipóteses de responsabilização em razão do tipo de risco criado pela tecnologia. Em síntese, vê-se que a atribuição do dever de reparar em cenários de IA depende tanto da conjugação pontual de critérios diversos de causalidade quanto do cumprimento (ou não) de obrigações específicas que visam reduzir riscos e assegurar conformidade com princípios de confiabilidade e segurança. Não basta a existência de uma condição fática que, em tese, cause o dano. Torna-se imprescindível, em casos de alta complexidade tecnológica, 385 Miragem, 2020, p. 242; Dantas Bisneto, 2024, p. 4.6.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".