Introdução
A análise das aplicações e implicações práticas das teorias da causalidade no contexto da inteligência artificial revela um quadro de rica complexidade jurídica. As diversas teorias estudadas — equivalência das condições, causalidade adequada, dano direto e imediato, imputação objetiva, causalidade probabilística, entre outras — fornecem arcabouços que auxiliam na seleção, dentre as inúmeras condições antecedentes e concomitantes, daquelas que efetivamente assumem relevância jurídica para desencadear o dever de reparar. Cada teoria propõe caminhos próprios para lidar com múltiplos elos causais, mas a prática demonstra que o ordenamento jurídico brasileiro, em sua evolução, tende a adotar soluções híbridas e fundamentadas em critérios de equidade, eficiência protetiva e prevenção de riscos — frequentemente, segundo a doutrina, sem sistematização dogmática rigorosa.
A Causalidade Psíquica em Sistemas de Segurança Inteligente
Um dos cenários de aplicação mais polêmicos da teoria da causalidade psíquica no contexto tecnológico envolve sistemas de segurança para residências inteligentes (smart homes). Imagine-se uma empresa que desenvolve um aplicativo de segurança para esse mercado. Por falha na configuração do software, o aplicativo permite que usuários externos realizem alterações remotas sem a devida autenticação de múltiplos fatores. Em decorrência dessa vulnerabilidade, um indivíduo mal-intencionado desativa remotamente o sistema de alarme de uma residência e executa um furto.
Embora a conduta decisiva — o furto — seja de autoria do terceiro, a falha inicial do fornecedor do aplicativo criou a condição que possibilitou a prática delitiva. Nessa hipótese, a teoria da Causalidade Psíquica justificaria a responsabilização conjunta da empresa: a conduta desta (deixar o aplicativo vulnerável) foi a "causa inicial" que influenciou a ação danosa levada a cabo pelo terceiro. Poder-se-ia argumentar que, ainda que não haja participação direta da empresa na prática do crime, seu comportamento negligente em termos de segurança cibernética concorreu para o resultado, fornecendo as circunstâncias necessárias para que o agente externo, por decisão própria, consumasse o furto.
A Responsabilidade do Fornecedor no CDC e no PL 2338/23
Esse cenário coloca em evidência a interação entre a teoria da causalidade psíquica e as normas de responsabilidade do fornecedor. O CDC (Lei nº 8.078/1990), em seu art. 14, estabelece que o fornecedor de serviços responde, independentemente de culpa, pela reparação dos danos causados por defeitos relativos à prestação dos serviços. Um aplicativo de segurança residencial que, por falha de configuração, permite acesso não autorizado é, por definição, um serviço defeituoso nos termos do § 1º, II, do art. 14 — que considera defeituoso o serviço que não fornece a segurança que o consumidor dele pode esperar.
O PL 2338/23 complementa esse quadro ao estabelecer, em seu Capítulo IV, obrigações de segurança cibernética para sistemas de IA, incluindo a adoção de medidas técnicas e organizacionais adequadas à proteção contra acessos não autorizados. O descumprimento dessas obrigações reforça o nexo entre a conduta do fornecedor e o dano sofrido pelo usuário, seja pela via da causalidade direta (o defeito do sistema como causa do dano), seja pela via da causalidade psíquica (o defeito como condição inicial da conduta danosa do terceiro).
Soluções Híbridas e a Prática Judicial Brasileira
Conforme apontam, entre outros, Bruno Miragem e Cícero Dantas Bisneto, a dificuldade de se aplicar mecânica e coerentemente uma única teoria da causalidade a todos os casos de danos por IA leva a doutrina e a jurisprudência brasileiras a adotar soluções híbridas. Na prática, os tribunais tendem a combinar elementos de diferentes teorias — utilizando, por exemplo, o escopo da norma para delimitar o tipo de dano ressarcível, a causalidade adequada para selecionar as condições causalmente relevantes, e a presunção de causalidade para superar as dificuldades probatórias inerentes à opacidade algorítmica.
Essa tendência à hibridização não é, em si, problemática — desde que fundamentada em critérios claros de equidade, eficiência protetiva e prevenção de riscos. O risco que se apresenta é o da ausência de sistematização dogmática rigorosa, que pode resultar em decisões inconsistentes e imprevisíveis, comprometendo a segurança jurídica dos agentes econômicos e desincentivando o investimento em inovação responsável.
O Papel do Código Civil e da Imputação Objetiva
O Código Civil (Lei nº 10.406/2002) oferece, no art. 927, parágrafo único, a base normativa para a responsabilidade objetiva em atividades de risco, que a doutrina tem progressivamente aplicado ao desenvolvimento de sistemas de IA de alto potencial danoso. A teoria da imputação objetiva, por sua vez, permite avaliar se o agente agiu dentro dos limites impostos por normas protetivas — o que remete ao conceito de risco proibido e de escopo normativo.
A articulação entre a responsabilidade objetiva do art. 927 e as teorias da causalidade cria um modelo de imputação que: (i) prescinde da prova de culpa; (ii) exige a demonstração do nexo causal entre a atividade de risco e o dano; e (iii) admite a exclusão da responsabilidade nos casos em que o dano decorra de fato exclusivo da vítima, de terceiro, ou de caso fortuito externo — excludentes previstos no art. 14, § 3º, do CDC e implicitamente reconhecidas pela doutrina civilista.
Implicações para a Governança de IA
As implicações das teorias da causalidade para a governança de sistemas de IA são significativas. A consciência de que a causalidade psíquica pode responsabilizar o fornecedor por danos causados por terceiros que se aproveitam de vulnerabilidades do sistema cria um forte incentivo econômico à adoção de medidas robustas de segurança. Do mesmo modo, a presunção de causalidade em favor do lesado quando o fornecedor não mantém registros técnicos adequados incentiva a adoção das práticas de documentação e rastreabilidade exigidas pelo AI Act e pelo PL 2338/23.
Considerações Finais
As aplicações e implicações práticas das teorias da causalidade no contexto da IA revelam um campo em intensa elaboração doutrinária e jurisprudencial. Parece-nos que o ordenamento jurídico brasileiro dispõe de instrumentos normativos suficientes para enfrentar os principais desafios de responsabilidade civil suscitados pelos sistemas inteligentes — desde que esses instrumentos sejam articulados de forma coerente e sistemática, em diálogo com os marcos regulatórios emergentes. A construção desse diálogo é a tarefa mais urgente que se apresenta à doutrina e à jurisprudência nacionais no campo da responsabilidade civil por inteligência artificial.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".