Voltar ao Blog
Nexo de CausalidadeCapítulo 2

As Teorias da Causalidade: Visão Comparada

Análise comparada das teorias da causalidade aplicadas à responsabilidade civil por inteligência artificial, à luz do PL 2338/23, AI Act e LGPD.

Alessandro Lavorante 4 de janeiro de 2025 6 min de leitura

Introdução

A identificação do nexo causal constitui, indiscutivelmente, um dos elementos mais complexos da responsabilidade civil contemporânea. Quando se trata de sistemas de inteligência artificial, essa complexidade se amplifica: a opacidade dos algoritmos, a multiplicidade de agentes envolvidos no desenvolvimento e na implementação das tecnologias e a dificuldade de se isolar a contribuição de cada fator para a produção do dano colocam em xeque os instrumentos tradicionais de análise causal. Parece-nos indispensável, portanto, proceder a uma visão comparada das principais teorias da causalidade e aferir em que medida cada uma delas responde satisfatoriamente aos desafios impostos pelos sistemas inteligentes.

O Escopo Protetivo da Norma e a IA

Uma das abordagens que melhor se presta à análise dos danos causados por sistemas de IA é a teoria do escopo da norma — derivada da imputação objetiva e amplamente desenvolvida na dogmática alemã. Por essa teoria, o dano somente gera responsabilidade quando se insere no "escopo protetivo" da norma violada, vale dizer, quando o resultado danoso é precisamente aquele que a norma visava prevenir.

Para ilustrar o ponto, tome-se o seguinte cenário: um sistema de triagem médica baseado em IA, implantado em uma clínica, deixa de encaminhar um paciente com sinais de infarto para avaliação presencial. O algoritmo, por falha interna, classifica erroneamente os sintomas como "baixo risco", e o paciente sofre complicações cardíacas graves. Nesse caso, o dano se insere plenamente no escopo protetivo da norma, pois decorre de defeito no funcionamento do sistema relacionado ao tipo de risco que a legislação busca evitar: problemas inerentes à tecnologia que comprometam, em especial, a segurança e a saúde do usuário.

A responsabilidade pode recair tanto sobre a clínica — que utilizou a IA sem o discernimento necessário — quanto sobre o fornecedor do sistema, caso este não haja adotado as cautelas exigidas por lei. O PL 2338/23, aprovado no Senado, disciplina, em seu Capítulo IV (arts. 19 e seguintes), requisitos de governança, transparência e avaliação de impacto para sistemas de IA de alto risco, tornando exigível que o desenvolvedor ressalte, em contrato e no manual de uso, que o sistema não substitui avaliação médica e que qualquer diagnóstico definitivo requer a intervenção de profissional habilitado.

O Mau Uso e a Ruptura do Nexo Causal

Em cenário distinto, porém relacionado, um paciente obtém acesso não autorizado à versão corporativa do mesmo software e o utiliza de maneira completamente irregular, ignorando avisos expressos de que o produto se destina a profissionais de saúde e não substitui consulta médica. Ao seguir interpretações equivocadas geradas pela IA e renunciar à busca por um pronto-socorro, o paciente agrava um quadro clínico preexistente.

Nessa hipótese, é defensável a tese de que o dano se origina de mau uso deliberado e extrapola o risco típico que o legislador pretende coibir. O dano não decorre do mau funcionamento do sistema em seu uso ordinário, mas do desvio de finalidade praticado pelo próprio lesado. A teoria do escopo da norma evidencia que, quando o usuário age à margem das orientações de segurança e das condições de uso definidas pelo fornecedor e pelas regras consumeristas — notadamente o Código de Defesa do Consumidor (CDC), Lei nº 8.078/1990, em seus arts. 12 e 14 —, o nexo causal entre o defeito do produto e o dano se rompe.

A Perspectiva Comparada: PL 2338/23 e AI Act

Verifica-se que tanto o PL 2338/23 quanto as propostas europeias — nomeadamente o AI Act (Regulamento UE 2024/1689) e a Diretiva de Responsabilidade Civil para IA — convergem na compreensão de que o desenvolvedor deve responder pelos danos "típicos" da tecnologia, assim entendidos aqueles que decorrem diretamente das características e riscos inerentes ao sistema. Essa convergência não é casual: reflete a influência crescente do pensamento europeu sobre o debate regulatório brasileiro, especialmente na formatação das obrigações de governança e transparência.

O AI Act classifica os sistemas de IA por níveis de risco e impõe obrigações proporcionais a cada categoria. Sistemas de triagem médica, por exemplo, enquadram-se na categoria de "alto risco" (Anexo III do Regulamento), submetendo-se a requisitos rigorosos de documentação técnica, teste, validação e supervisão humana. A omissão de tais requisitos, no marco europeu, é considerada indício robusto de responsabilidade do fornecedor pelos danos decorrentes.

No ordenamento brasileiro, a LGPD (Lei nº 13.709/2018) complementa esse quadro ao impor ao controlador a obrigação de garantir a segurança dos dados tratados e de informar os titulares sobre decisões automatizadas que os afetem (art. 20). A violação dessas obrigações, no contexto de sistemas médicos de IA, reforça o nexo entre a conduta do desenvolvedor e o dano à saúde do paciente.

Responsabilidade Solidária e Distribuição de Deveres

Outro ponto relevante na visão comparada diz respeito à distribuição de responsabilidade entre os múltiplos agentes da cadeia de fornecimento de IA. O CDC, em seu art. 18, estabelece a responsabilidade solidária de todos os fornecedores da cadeia produtiva pelos defeitos do produto. Essa regra, originalmente concebida para produtos físicos, parece-nos perfeitamente aplicável aos sistemas de IA, sendo possível responsabilizar solidariamente o desenvolvedor do modelo, o integrador do sistema e o operador do serviço que o disponibiliza ao usuário final.

O PL 2338/23 avança nessa direção ao prever, em seu art. 28, a responsabilidade solidária entre agentes de IA quando configurado o dano ao usuário, ressalvada a possibilidade de ação de regresso entre eles. Esse mecanismo é essencial para garantir a reparação integral do lesado, que frequentemente não dispõe de meios técnicos para identificar qual elo da cadeia foi responsável pela falha.

Considerações Finais

A visão comparada das teorias da causalidade revela que nenhuma delas, isoladamente, responde de forma satisfatória a todos os problemas suscitados pela IA. A teoria do escopo da norma, contudo, apresenta vantagens notáveis no contexto tecnológico: ao vincular a responsabilidade ao risco típico que a norma pretende prevenir, ela impede tanto a hipertrofia quanto a atrofia da responsabilidade, equilibrando a proteção do lesado e a segurança jurídica do fornecedor. Parece-nos que o diálogo entre essa teoria e os marcos regulatórios emergentes — PL 2338/23, AI Act, LGPD e CDC — oferece o arcabouço mais coerente para a imputação de responsabilidade civil no contexto dos sistemas de inteligência artificial.

TeoriasCausalidadeEquivalênciaCausalidade Adequada

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.