Da Teoria à Prática: Identificando Falhas Estruturais em Sistemas de IA
A transição dos critérios teóricos da antijuridicidade para sua aplicação prática nos litígios envolvendo inteligência artificial revela desafios concretos que o operador do direito precisará enfrentar. O critério da "anormalidade estrutural" — que analisa o próprio conjunto de instruções abstratas que regem o sistema, e não apenas seus atos individuais — é, provavelmente, o mais desafiador do ponto de vista probatório, mas também o mais relevante para casos de danos seriais produzidos por algoritmos com defeitos de concepção.
Esse tipo de falha pode ser identificado por dois caminhos principais. O primeiro é a repetição de eventos danosos semelhantes: quando um sistema de IA causa, em diferentes contextos e versões, danos de mesma natureza, essa frequência anormal aponta para um problema nos algoritmos subjacentes, incompatível com as expectativas legítimas da sociedade. A recorrência funciona, nesse contexto, como evidência circunstancial de que o defeito não é acidental, mas estrutural. O segundo caminho é um único fato excepcionalmente grave que revele um desvio significativo em relação à vocação esperada do sistema — situação em que a gravidade do dano, por si só, é suficiente para levantar a presunção de falha de projeto.
Veículos Autônomos e o Padrão de Defeito de Concepção
O exemplo dos veículos autônomos que causam, em diferentes versões, acidentes de mesma natureza ilustra com precisão a aplicação prática do critério da anormalidade estrutural. Essa frequência anormal de danos apontaria para um problema estrutural nos algoritmos de navegação e tomada de decisão, incompatível com as expectativas legítimas da sociedade quanto à segurança desses veículos. A avaliação dessa "anormalidade estrutural" deve considerar, além de padrões técnicos objetivos — como as normas ISO aplicáveis à segurança funcional de veículos autônomos —, os contextos em que a IA opera, sobretudo em atividades intrinsecamente arriscadas, onde certos danos podem ser previstos desde o início do ciclo de desenvolvimento.
Cabe ressaltar que essa abordagem é análoga à do defeito de série no direito do consumidor: quando um produto apresenta o mesmo defeito em todas as unidades fabricadas, o problema está no projeto, não na fabricação individual. O Código de Defesa do Consumidor trata essa hipótese no art. 12, § 1º, I — o chamado "defeito de concepção" —, que gera responsabilidade objetiva do fabricante independentemente de culpa. A transposição desse raciocínio para os sistemas de IA é tecnicamente possível e juridicamente adequada, desde que se respeite a especificidade do processo de "fabricação" algorítmica, que envolve etapas de treinamento, validação, implantação e atualização contínua, cada uma das quais pode ser fonte de defeitos distintos.
O Cálculo de Custo-Benefício: Utilidade e Limites Práticos
O critério do "cálculo de custo-benefício" (l'IA condamnée au terme d'un calcul bénéfice/risque), inspirado na tradição jurídica norte-americana — particularmente na fórmula Hand, segundo a qual há negligência quando o custo de prevenir o dano é inferior ao produto da probabilidade do dano pela magnitude do prejuízo —, apresenta uma perspectiva macroeconômica da antijuridicidade. Por esse critério, a responsabilidade não decorre apenas de uma falha específica do sistema, mas de uma avaliação global: os benefícios sociais da tecnologia superam, ou não, os danos que ela causa?
A avaliação se daria em nível macroscópico, analisando o dispositivo estrutural em si, e não a versão específica envolvida em um caso isolado. Isso significa que um sistema de IA poderia ser considerado antijurídico — e sua operação proibida ou restringida — não em razão de um defeito técnico identificável, mas porque o balanço entre os benefícios que oferece e os danos que causa é desfavorável à sociedade. Essa lógica está presente, de forma explícita, no AI Act europeu (Regulamento UE 2024/1689), que proíbe determinadas aplicações de IA — como o uso de sistemas de pontuação social para fins gerais pelo poder público — por entender que seus riscos para os direitos fundamentais superam quaisquer benefícios alegados.
Limitações Práticas do Critério de Custo-Benefício
Verificou-se, contudo, que o critério do cálculo de custo-benefício apresenta limitações práticas consideráveis. A primeira diz respeito ao seu caráter necessariamente vago: a ampla liberdade conferida ao julgador para ponderar benefícios e danos compromete a previsibilidade das decisões e pode gerar insegurança jurídica tanto para as empresas que desenvolvem IA quanto para as vítimas que buscam reparação. A segunda limitação é sua natureza retrospectiva: o cálculo de custo-benefício somente funciona a posteriori, quando os danos já se acumularam o suficiente para permitir uma avaliação estatisticamente confiável, o que limita sua utilidade em cenários preventivos.
Essas limitações explicam por que tanto o PL 2.338/2023 quanto o AI Act europeu preferiram uma abordagem baseada em categorias de risco pré-definidas — identificadas por critérios objetivos relativos à finalidade do sistema, ao setor de aplicação e ao potencial de impacto sobre direitos fundamentais — em vez de remeter ao julgador a avaliação caso a caso dos custos e benefícios de cada tecnologia. A previsibilidade regulatória, nesse campo, é um valor em si mesmo: é condição necessária para que os desenvolvedores possam planejar com segurança suas atividades de pesquisa e desenvolvimento, e para que as vítimas possam antecipar com razoável certeza quais instrumentos jurídicos estão à sua disposição para buscar reparação.
Aspectos Práticos da Prova nos Litígios Envolvendo IA
Um dos aspectos práticos mais relevantes para o operador do direito que litiga em casos envolvendo sistemas de inteligência artificial é a questão probatória. A demonstração de que um sistema apresenta "anormalidade estrutural" exige, em regra, perícia técnica especializada, acesso ao código-fonte e aos dados de treinamento do modelo, e análise estatística das decisões produzidas ao longo do tempo. Essa exigência probatória cria uma assimetria desfavorável à vítima, que tipicamente não tem acesso a essas informações.
O ordenamento jurídico brasileiro oferece alguns instrumentos para mitigar essa assimetria. A inversão do ônus da prova prevista no art. 6º, VIII, do CDC é aplicável sempre que o usuário lesado puder ser enquadrado na categoria de consumidor — o que é frequente em casos envolvendo plataformas digitais, aplicativos de saúde, sistemas de crédito automatizado e outros serviços baseados em IA. O dever de transparência imposto pela LGPD (arts. 9º e 18) e os direitos de explicação das decisões automatizadas (art. 20 da LGPD) também funcionam como mecanismos de equilíbrio: a empresa que se recusa a fornecer explicações adequadas sobre o funcionamento de seu sistema de IA coloca-se em posição desfavorável perante o julgador, que pode extrair presunções desfavoráveis dessa recusa.
Da Responsabilização Individual à Regulação Setorial
Em síntese, os aspectos práticos da responsabilidade civil por atos de inteligência artificial revelam que a solução dos litígios individuais, por mais importante que seja para as vítimas concretas, é insuficiente para enfrentar os desafios sistêmicos colocados pela difusão dessas tecnologias. A frequência e a escala dos danos causados por sistemas de IA — que podem afetar simultaneamente milhares ou milhões de pessoas — demandam, além da responsabilização individual, mecanismos de regulação setorial capazes de prevenir os danos antes que eles se acumulem. O PL 2.338/2023, ao propor a criação de uma autoridade competente para a supervisão de sistemas de IA de alto risco no Brasil, e o AI Act europeu, ao estabelecer obrigações de conformidade ex ante para esses sistemas, representam exatamente essa dimensão regulatória preventiva — complementar, e não substitutiva, ao papel da responsabilidade civil na proteção dos direitos das pessoas afetadas pela inteligência artificial.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".