Voltar ao Blog
Nexo de CausalidadeCapítulo 2

As Teorias da Causalidade: Base Teórica

Base teórica das teorias da causalidade no direito civil: escopo da norma, PL 2338/23, AI Act, LGPD, CDC e a responsabilidade por sistemas de IA de alto risco no Brasil.

Alessandro Lavorante 1 de janeiro de 2025 7 min de leitura

Considerações Introdutórias

A base teórica das teorias da causalidade no direito civil brasileiro constitui o fundamento sobre o qual se erige toda a arquitetura da responsabilidade civil contemporânea. Parece-nos que a consolidação dessa base, especialmente em face dos desafios impostos pelos sistemas de inteligência artificial, exige a articulação rigorosa entre as construções dogmáticas tradicionais e os novos marcos normativos que emergem tanto no plano nacional quanto no plano internacional.

Verificou-se, ao longo desta série de artigos, que as diferentes teorias da causalidade — equivalência das condições, causalidade adequada, causalidade eficiente, dano direto e imediato, imputação objetiva do resultado e escopo da norma — não são instrumentos mutuamente excludentes, mas perspectivas complementares que iluminam diferentes aspectos do problema causal. A base teórica mais sólida para o enfrentamento dos casos concretos é, portanto, aquela que sabe articular essas perspectivas de modo coerente e orientado pelos fins normativos do ordenamento jurídico.

A Teoria do Escopo da Norma como Síntese Integradora

A teoria do escopo da norma — também denominada teoria da finalidade da norma — constitui, a nosso ver, a construção teórica mais adequada para servir como síntese integradora das demais teorias da causalidade no contexto da responsabilidade civil por sistemas de inteligência artificial. Sua virtude metodológica essencial reside na capacidade de articular o nexo causal com o conteúdo teleológico das normas aplicáveis, evitando tanto a extensão ilimitada da responsabilidade quanto a exclusão injustificada das vítimas do âmbito de proteção do ordenamento.

Na sequência causal, a teoria da finalidade da norma enfatiza que o evento danoso deve ser diretamente vinculado ao risco que a lei desejava prevenir. Esse postulado adquire especial densidade normativa quando cotejado com os marcos regulatórios da inteligência artificial, que definem com relativa precisão os riscos que pretendem mitigar. Parece-nos que o PL 2338/23 e o AI Act europeu não são apenas instrumentos de regulação administrativa, mas também fontes de definição do conteúdo do nexo causal para fins de responsabilidade civil.

A Base Normativa do PL 2338/23

O PL 2338/23 — Projeto de Lei de Inteligência Artificial em tramitação no Congresso Nacional — estabelece, em seu Capítulo III, a categorização dos riscos dos sistemas de IA, distinguindo entre sistemas de risco excessivo, alto risco, risco limitado e risco mínimo. Para os fins da teoria do escopo da norma, são especialmente relevantes as disposições dos arts. 17 e 18, que definem os sistemas de alto risco.

Segundo o art. 17 do PL 2338/23, são considerados sistemas de inteligência artificial de alto risco aqueles utilizados, entre outras finalidades, para "aplicações na área da saúde, inclusive as destinadas a auxiliar diagnósticos e procedimentos médicos" (inciso IX). O art. 18, por sua vez, prevê que a autoridade competente poderá atualizar a lista dos sistemas de alto risco com base em critérios como o potencial de impactar negativamente o exercício de direitos e liberdades (inciso II), o alto potencial danoso de ordem material ou moral, bem como discriminatório (inciso III), e a irreversibilidade ou dificuldade de reversão dos possíveis resultados prejudiciais (inciso V).

Esses critérios normativos fornecem a base para a delimitação do âmbito de proteção das normas do PL 2338/23: os danos que correspondem exatamente ao tipo de resultado que esses critérios pretendem prevenir são cobertos pela teoria do escopo da norma, fundamentando a responsabilização dos agentes que descumpriram as obrigações impostas pelo projeto de lei.

A Base Normativa do AI Act Europeu

O AI Act europeu (Regulamento UE 2024/1689) constitui o mais abrangente marco regulatório da inteligência artificial em vigor no mundo, sendo referência incontornável para a base teórica da responsabilidade civil por sistemas de IA. O regulamento classifica os sistemas de IA em função do risco que apresentam, impondo obrigações progressivamente mais rigorosas à medida que o nível de risco aumenta.

Para sistemas de risco elevado, o AI Act exige conformidade com requisitos técnicos específicos, incluindo dados e governança de dados adequados, documentação técnica completa, registro de eventos (logging), transparência e fornecimento de informações aos utilizadores, supervisão humana, robustez, exatidão e cibersegurança. O descumprimento de qualquer desses requisitos por um desenvolvedor ou operador de sistema de IA, quando resultar em dano ao usuário ou a terceiro, configura violação de norma cujo escopo protetivo abrange exatamente esse tipo de resultado lesivo.

Parece-nos que a articulação entre os requisitos do AI Act e a teoria do escopo da norma produz consequências normativas relevantes para o direito brasileiro: ainda que o AI Act não seja diretamente aplicável no Brasil, seus standards técnicos e jurídicos podem ser invocados como parâmetro interpretativo para a definição das obrigações dos desenvolvedores e operadores de sistemas de IA que atuam no mercado brasileiro.

A Interação com a LGPD e o Código de Defesa do Consumidor

A base teórica da responsabilidade civil por sistemas de IA no Brasil não pode prescindir da LGPD e do Código de Defesa do Consumidor, que constituem os principais instrumentos normativos de proteção dos direitos dos usuários de sistemas algorítmicos.

A LGPD, em seus arts. 6º, 17 e 20, estabelece princípios de tratamento de dados pessoais — incluindo finalidade, adequação, necessidade, transparência e não discriminação — e garante ao titular de dados o direito de revisão de decisões automatizadas que afetem seus interesses. O descumprimento desses princípios pelo operador de um sistema de IA que cause dano ao titular constitui violação de norma cujo escopo protetivo abrange o dano sofrido, fundamentando a responsabilização com base na teoria do escopo da norma.

O Código de Defesa do Consumidor, por sua vez, ao estabelecer a responsabilidade objetiva do fornecedor por defeitos de produto ou serviço (arts. 12 e 14), a inversão do ônus da prova (art. 6º, VIII) e o direito à informação adequada (art. 6º, III), cria um regime protetivo abrangente que interage com a teoria do escopo da norma de modo mutuamente reforçador: as normas do CDC definem os riscos que a lei pretende prevenir, e a teoria do escopo da norma permite identificar, em cada caso concreto, se o dano sofrido pelo consumidor se insere no âmbito de proteção das normas violadas.

Base Teórica para a Responsabilidade Civil por Sistemas de IA de Alto Risco

Sintetizando a base teórica desenvolvida ao longo desta série de artigos, parece-nos que a responsabilidade civil por sistemas de inteligência artificial de alto risco deve ser analisada a partir da seguinte estrutura metodológica. Em primeiro lugar, a teoria da equivalência das condições identifica o universo das condições antecedentes ao dano. Em segundo lugar, a teoria da causalidade adequada seleciona, entre essas condições, aquelas que, segundo a experiência comum e os standards técnicos aplicáveis, eram tipicamente capazes de produzir o resultado. Em terceiro lugar, a teoria do dano direto e imediato — em sua versão da subteoria da causa necessária — delimita o nexo de necessariedade entre a conduta e o dano. Em quarto lugar, a teoria do escopo da norma verifica se o dano sofrido se insere no âmbito de proteção das normas regulatórias violadas pelo agente.

Esse método integrativo, orientado pelos fins normativos do PL 2338/23, do AI Act, da LGPD e do Código de Defesa do Consumidor, é, a nosso ver, a base teórica mais adequada para o enfrentamento dos desafios da responsabilidade civil da inteligência artificial no Brasil.

Conclusão

Verificou-se que a base teórica das teorias da causalidade no direito civil brasileiro, quando adequadamente articulada com os marcos normativos da inteligência artificial, oferece instrumentos suficientes para a tutela efetiva das vítimas de danos algorítmicos. Parece-nos que o desenvolvimento de uma doutrina brasileira da responsabilidade civil da inteligência artificial, rigorosa e tecnologicamente adequada, é não apenas possível, mas urgente. O diálogo permanente entre a dogmática civilista, os marcos regulatórios nacionais e internacionais e os avanços tecnológicos do setor é a condição indispensável para que esse objetivo seja alcançado com a qualidade e a consistência que a sociedade brasileira demanda de seus operadores jurídicos.

TeoriasCausalidadeEquivalênciaCausalidade Adequada

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.