As Excludentes de Responsabilidade: Reflexões e Propostas
A reflexão crítica sobre as excludentes de responsabilidade civil no contexto da inteligência artificial exige que se examine, em detalhe, o modo pelo qual o PL 2.338/2023 classifica os sistemas de IA segundo seus níveis de risco, pois é precisamente essa classificação que determina o regime de responsabilidade — e, consequentemente, as excludentes disponíveis — para cada categoria de agente. Parece-nos que a compreensão das categorias de risco é pressuposto inafastável para a aplicação correta do novo marco regulatório.
Sistemas de Alto Risco no PL 2.338/2023
De acordo com o PL 2.338/2023, os sistemas de inteligência artificial classificados como de alto risco abrangem uma gama de aplicações críticas previstas em seu art. 17. Isso inclui o uso em infraestruturas essenciais como controle de trânsito e distribuição de água (inciso I), educação e avaliação de estudantes (inciso II), recrutamento e avaliação de candidatos a emprego (inciso III), análise de elegibilidade para serviços públicos ou privados essenciais (inciso IV), definição de capacidade de crédito (inciso V), resposta a emergências (inciso VI), administração da justiça (inciso VII), veículos autônomos com potencial de risco à integridade física (inciso VIII), aplicações na área da saúde (inciso IX), sistemas biométricos de identificação (inciso X) e atividades de investigação criminal, segurança pública e migração (incisos XI a XIV).
Verificou-se que a amplitude dessa listagem é notável: ela abrange desde sistemas de análise de crédito utilizados em larga escala pelo setor financeiro até sistemas de triagem penal utilizados pelo poder público, passando por aplicações médicas de diagnóstico. Para todos esses sistemas, aplica-se a responsabilidade objetiva prevista no art. 27, § 1.º, do PL, com as excludentes taxativamente enumeradas no art. 28.
Sistemas de Risco Excessivo
Mais grave ainda é a categoria dos sistemas de risco excessivo, que o PL 2.338/2023 trata na Seção II. São considerados de risco excessivo os sistemas de IA que, em linhas gerais, empreguem técnicas subliminares voltadas a induzir pessoas a comportamentos prejudiciais (art. 14, inciso I), explorem vulnerabilidades de grupos específicos, como crianças ou pessoas com deficiência (art. 14, inciso II), ou ainda sejam usados pelo poder público para avaliar e ranquear indivíduos de forma universal em acesso a bens, serviços ou políticas públicas de maneira ilegítima (art. 14, inciso III).
A presença de sistemas de risco excessivo na regulação suscita reflexão sobre a possibilidade de admissão de excludentes de responsabilidade para essa categoria. Parece-nos que, para os sistemas de risco excessivo que venham a ser implantados em violação às proibições do art. 14, a invocação de excludentes como fato exclusivo da vítima ou caso fortuito externo deveria ser ainda mais restritiva do que nos casos de alto risco, dada a gravidade da conduta do agente que deliberadamente coloca em circulação tecnologia vedada pelo ordenamento.
Identificação Biométrica e Limitações Específicas
O PL 2.338/2023 estabelece limitação rígida ao uso de identificação biométrica à distância em espaços públicos para fins de segurança, somente permitido quando houver previsão em lei federal específica, autorização judicial e conexão com persecução penal em casos de crimes graves, busca de vítimas ou crimes em flagrante (art. 15). Essa limitação reflete preocupações com os direitos fundamentais à privacidade e à proteção de dados pessoais, consagrados no art. 5.º, X e LXXIX, da Constituição Federal, e regulamentados pela LGPD.
No que diz respeito às excludentes de responsabilidade, verificou-se que o uso de sistemas de identificação biométrica em desconformidade com as condições do art. 15 afasta integralmente qualquer possibilidade de invocação do caso fortuito ou de fato de terceiro como excludente, na medida em que a própria implantação do sistema configura ato ilícito originário — e o art. 393, parágrafo único, do Código Civil somente permite a invocação do caso fortuito nos casos em que a atividade subjacente é lícita.
Reflexões sobre a Adequação do Sistema de Excludentes ao Setor de IA
Uma reflexão crítica impõe-se neste ponto: o sistema de excludentes tradicionalmente concebido para atividades humanas diretas — em que o agente e o dano estão em relação de proximidade causal razoavelmente identificável — é adequado para regular a responsabilidade em casos envolvendo sistemas de IA autônomos, em que a cadeia causal é longa, opaca e mediada por processos algorítmicos de difícil auditoria?
Parece-nos que a resposta é parcialmente negativa. As excludentes tradicionais permanecem válidas como categorias gerais, mas sua aplicação prática exige adaptações metodológicas. Em especial, a determinação do "fato exclusivo da vítima" ou do "caso fortuito externo" em casos de danos causados por sistemas de IA requer análise técnica especializada — muitas vezes inviável para a vítima sem acesso aos dados e algoritmos do sistema —, o que reforça a importância da inversão do ônus da prova prevista no PL 2.338/2023 e das presunções de causalidade contempladas na proposta europeia de diretiva.
Propostas de Aperfeiçoamento
A partir da análise conduzida, parece-nos que algumas propostas de aperfeiçoamento do sistema normativo em construção merecem consideração. Em primeiro lugar, seria oportuna a previsão expressa do dever de documentação técnica dos sistemas de IA como condição para a admissibilidade de excludentes de responsabilidade: somente o agente que mantiver registros adequados do funcionamento do sistema poderia invocar a excludente do caso fortuito externo ou do fato de terceiro.
Em segundo lugar, a criação de mecanismos de auditoria independente — semelhantes aos previstos no AI Act europeu para sistemas de alto risco (arts. 17.º a 22.º) — permitiria a verificação objetiva das alegações de excludente, reduzindo a assimetria informacional entre vítimas e desenvolvedores nos processos judiciais. Em terceiro lugar, a regulamentação de fundos de compensação setoriais, financiados pelos agentes que desenvolvem e operam sistemas de IA de alto risco, poderia funcionar como mecanismo complementar de reparação nos casos em que as excludentes fossem reconhecidas, evitando que a vítima suporte sozinha o ônus do dano.
Síntese
Em síntese, verificou-se que as reflexões sobre as excludentes de responsabilidade civil no contexto da inteligência artificial conduzem a um quadro de tensão produtiva entre o sistema normativo tradicional e as demandas do ambiente tecnológico. O PL 2.338/2023 representa avanço significativo ao consagrar expressamente as excludentes aplicáveis aos sistemas de IA e ao introduzir regime diferenciado segundo o nível de risco do sistema, mas subsistem lacunas e ambiguidades que a regulamentação infralegal e a jurisprudência deverão progressivamente suprir.
Referências
- BRASIL. Código Civil (Lei n.º 10.406/2002). Art. 393.
- BRASIL. Constituição Federal (1988). Art. 5.º, X e LXXIX.
- BRASIL. Lei Geral de Proteção de Dados (Lei n.º 13.709/2018).
- BRASIL. Projeto de Lei n.º 2.338/2023. Arts. 14, 15, 17, 27 e 28.
- UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 — AI Act. Arts. 9.º, 13.º, 17.º a 22.º.
- UNIÃO EUROPEIA. Proposta de Diretiva sobre Responsabilidade Civil da IA. COM/2022/496.
- FARIAS, Cristiano Chaves de; BRAGA NETTO, Felipe Peixoto; ROSENVALD, Nelson. Novo Tratado de Responsabilidade Civil. 3. ed. São Paulo: Saraivajur, 2019.
- GONÇALVES, Carlos Roberto. Responsabilidade Civil. 23. ed. São Paulo: Saraivajur, 2024.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".