Voltar ao Blog
Responsabilidade CivilCapítulo 2

A Conduta Humana Ilícita ou Antijurídica: Aspectos Práticos

Aspectos práticos da responsabilidade civil por IA: falhas estruturais em algoritmos, veículos autônomos com defeito de concepção, cálculo de custo-benefício e limites da avaliação a posteriori.

Alessandro Lavorante 6 de setembro de 2024 7 min de leitura

Da Teoria à Prática: Identificando Falhas Estruturais em Sistemas de IA

A transição dos critérios teóricos da antijuridicidade para sua aplicação prática nos litígios envolvendo inteligência artificial revela desafios concretos que o operador do direito precisará enfrentar. O critério da "anormalidade estrutural" — que analisa o próprio conjunto de instruções abstratas que regem o sistema, e não apenas seus atos individuais — é, provavelmente, o mais desafiador do ponto de vista probatório, mas também o mais relevante para casos de danos seriais produzidos por algoritmos com defeitos de concepção.

Esse tipo de falha pode ser identificado por dois caminhos principais. O primeiro é a repetição de eventos danosos semelhantes: quando um sistema de IA causa, em diferentes contextos e versões, danos de mesma natureza, essa frequência anormal aponta para um problema nos algoritmos subjacentes, incompatível com as expectativas legítimas da sociedade. A recorrência funciona, nesse contexto, como evidência circunstancial de que o defeito não é acidental, mas estrutural. O segundo caminho é um único fato excepcionalmente grave que revele um desvio significativo em relação à vocação esperada do sistema — situação em que a gravidade do dano, por si só, é suficiente para levantar a presunção de falha de projeto.

Veículos Autônomos e o Padrão de Defeito de Concepção

O exemplo dos veículos autônomos que causam, em diferentes versões, acidentes de mesma natureza ilustra com precisão a aplicação prática do critério da anormalidade estrutural. Essa frequência anormal de danos apontaria para um problema estrutural nos algoritmos de navegação e tomada de decisão, incompatível com as expectativas legítimas da sociedade quanto à segurança desses veículos. A avaliação dessa "anormalidade estrutural" deve considerar, além de padrões técnicos objetivos — como as normas ISO aplicáveis à segurança funcional de veículos autônomos —, os contextos em que a IA opera, sobretudo em atividades intrinsecamente arriscadas, onde certos danos podem ser previstos desde o início do ciclo de desenvolvimento.

Cabe ressaltar que essa abordagem é análoga à do defeito de série no direito do consumidor: quando um produto apresenta o mesmo defeito em todas as unidades fabricadas, o problema está no projeto, não na fabricação individual. O Código de Defesa do Consumidor trata essa hipótese no art. 12, § 1º, I — o chamado "defeito de concepção" —, que gera responsabilidade objetiva do fabricante independentemente de culpa. A transposição desse raciocínio para os sistemas de IA é tecnicamente possível e juridicamente adequada, desde que se respeite a especificidade do processo de "fabricação" algorítmica, que envolve etapas de treinamento, validação, implantação e atualização contínua, cada uma das quais pode ser fonte de defeitos distintos.

O Cálculo de Custo-Benefício: Utilidade e Limites Práticos

O critério do "cálculo de custo-benefício" (l'IA condamnée au terme d'un calcul bénéfice/risque), inspirado na tradição jurídica norte-americana — particularmente na fórmula Hand, segundo a qual há negligência quando o custo de prevenir o dano é inferior ao produto da probabilidade do dano pela magnitude do prejuízo —, apresenta uma perspectiva macroeconômica da antijuridicidade. Por esse critério, a responsabilidade não decorre apenas de uma falha específica do sistema, mas de uma avaliação global: os benefícios sociais da tecnologia superam, ou não, os danos que ela causa?

A avaliação se daria em nível macroscópico, analisando o dispositivo estrutural em si, e não a versão específica envolvida em um caso isolado. Isso significa que um sistema de IA poderia ser considerado antijurídico — e sua operação proibida ou restringida — não em razão de um defeito técnico identificável, mas porque o balanço entre os benefícios que oferece e os danos que causa é desfavorável à sociedade. Essa lógica está presente, de forma explícita, no AI Act europeu (Regulamento UE 2024/1689), que proíbe determinadas aplicações de IA — como o uso de sistemas de pontuação social para fins gerais pelo poder público — por entender que seus riscos para os direitos fundamentais superam quaisquer benefícios alegados.

Limitações Práticas do Critério de Custo-Benefício

Verificou-se, contudo, que o critério do cálculo de custo-benefício apresenta limitações práticas consideráveis. A primeira diz respeito ao seu caráter necessariamente vago: a ampla liberdade conferida ao julgador para ponderar benefícios e danos compromete a previsibilidade das decisões e pode gerar insegurança jurídica tanto para as empresas que desenvolvem IA quanto para as vítimas que buscam reparação. A segunda limitação é sua natureza retrospectiva: o cálculo de custo-benefício somente funciona a posteriori, quando os danos já se acumularam o suficiente para permitir uma avaliação estatisticamente confiável, o que limita sua utilidade em cenários preventivos.

Essas limitações explicam por que tanto o PL 2.338/2023 quanto o AI Act europeu preferiram uma abordagem baseada em categorias de risco pré-definidas — identificadas por critérios objetivos relativos à finalidade do sistema, ao setor de aplicação e ao potencial de impacto sobre direitos fundamentais — em vez de remeter ao julgador a avaliação caso a caso dos custos e benefícios de cada tecnologia. A previsibilidade regulatória, nesse campo, é um valor em si mesmo: é condição necessária para que os desenvolvedores possam planejar com segurança suas atividades de pesquisa e desenvolvimento, e para que as vítimas possam antecipar com razoável certeza quais instrumentos jurídicos estão à sua disposição para buscar reparação.

Aspectos Práticos da Prova nos Litígios Envolvendo IA

Um dos aspectos práticos mais relevantes para o operador do direito que litiga em casos envolvendo sistemas de inteligência artificial é a questão probatória. A demonstração de que um sistema apresenta "anormalidade estrutural" exige, em regra, perícia técnica especializada, acesso ao código-fonte e aos dados de treinamento do modelo, e análise estatística das decisões produzidas ao longo do tempo. Essa exigência probatória cria uma assimetria desfavorável à vítima, que tipicamente não tem acesso a essas informações.

O ordenamento jurídico brasileiro oferece alguns instrumentos para mitigar essa assimetria. A inversão do ônus da prova prevista no art. 6º, VIII, do CDC é aplicável sempre que o usuário lesado puder ser enquadrado na categoria de consumidor — o que é frequente em casos envolvendo plataformas digitais, aplicativos de saúde, sistemas de crédito automatizado e outros serviços baseados em IA. O dever de transparência imposto pela LGPD (arts. 9º e 18) e os direitos de explicação das decisões automatizadas (art. 20 da LGPD) também funcionam como mecanismos de equilíbrio: a empresa que se recusa a fornecer explicações adequadas sobre o funcionamento de seu sistema de IA coloca-se em posição desfavorável perante o julgador, que pode extrair presunções desfavoráveis dessa recusa.

Da Responsabilização Individual à Regulação Setorial

Em síntese, os aspectos práticos da responsabilidade civil por atos de inteligência artificial revelam que a solução dos litígios individuais, por mais importante que seja para as vítimas concretas, é insuficiente para enfrentar os desafios sistêmicos colocados pela difusão dessas tecnologias. A frequência e a escala dos danos causados por sistemas de IA — que podem afetar simultaneamente milhares ou milhões de pessoas — demandam, além da responsabilização individual, mecanismos de regulação setorial capazes de prevenir os danos antes que eles se acumulem. O PL 2.338/2023, ao propor a criação de uma autoridade competente para a supervisão de sistemas de IA de alto risco no Brasil, e o AI Act europeu, ao estabelecer obrigações de conformidade ex ante para esses sistemas, representam exatamente essa dimensão regulatória preventiva — complementar, e não substitutiva, ao papel da responsabilidade civil na proteção dos direitos das pessoas afetadas pela inteligência artificial.

Conduta IlícitaAntijuridicidadeCulpa

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.