Além da Anormalidade: Expectativa Legítima e Estrutura Algorítmica
A análise aprofundada dos critérios de responsabilização por atos de inteligência artificial revela que o critério da anormalidade do fato, embora central, não esgota os parâmetros disponíveis para a aferição da conduta antijurídica. A doutrina comparada desenvolveu ao menos dois critérios adicionais de grande relevância prática: o da "expectativa legítima" (l'espérance légitime) e o da avaliação da "IA enquanto estrutura" (IA structurelle). Ambos permitem uma análise mais fina dos casos em que o dano não decorre de um ato isolado e identificável do sistema, mas de características intrínsecas ao seu desenho ou de uma discrepância sistemática entre as funções declaradas e as efetivamente exercidas.
O critério da expectativa legítima opera como uma variação da anormalidade do fato, analisando se a IA ultrapassou as funções que a sociedade poderia razoavelmente aguardar. Em última análise, esse critério diz respeito à falha humana em antecipar ou corrigir riscos: são os desenvolvedores, operadores e distribuidores do sistema que, ao colocá-lo no mercado e ao definir suas funções declaradas, criam expectativas legítimas nos usuários e no público em geral quanto ao seu comportamento. Quando o sistema defraudar essas expectativas de modo a causar dano, a responsabilidade dos atores humanos pertinentes é ativada.
A Expectativa Legítima em Perspectiva Prática
No caso da inteligência artificial, a expectativa legítima não recai sobre o dispositivo em si, mas sobre seus atos. Ela pode ter um sentido positivo, quando a IA não atinge o nível de segurança ou eficiência esperado, ou negativo, quando o dispositivo ultrapassa suas funções esperadas e produz resultados inesperados. Um exemplo que ensejaria responsabilização seria uma IA "jornalista" que emitisse comentários ofensivos ou divulgasse dados confidenciais de maneira inadvertida: a sociedade não espera, de um sistema destinado à elaboração de notícias, que produza ofensas ou viole a privacidade de pessoas. Em contrapartida, a IA não causaria responsabilização se reportasse informações precisas, ainda que prejudiciais a determinados interesses, desde que dentro dos limites de sua função declarada.
Cabe ressaltar que esse critério exige uma análise contextual cuidadosa. A expectativa legítima associada a um sistema de IA destinado ao diagnóstico oncológico é substancialmente diferente daquela associada a um chatbot de atendimento ao cliente. Em ambos os casos, contudo, o critério aponta para a mesma estrutura analítica: identifica-se o que a sociedade razoavelmente espera do sistema, compara-se esse padrão com o comportamento efetivamente adotado e, se houver discrepância danosa, verifica-se se essa discrepância é imputável à falha dos atores humanos que conceberam, treinaram, implantaram ou supervisionaram o sistema. Essa lógica é consistente com o princípio da confiança legítima, amplamente reconhecido pelo Supremo Tribunal Federal como corolário da segurança jurídica e da boa-fé nas relações entre particulares.
A IA como Estrutura: Falhas Sistêmicas e Responsabilidade pelo Desenho
O critério da avaliação da "IA enquanto estrutura" propõe que, além de considerar atos individuais da IA em sua operação, deve-se analisar o próprio conjunto de instruções abstratas que a regem — que pode ser intrinsecamente defeituoso. Esse enfoque é de especial importância para casos em que a falha não está em uma decisão pontual do sistema, mas em sua arquitetura fundamental. Parece-nos que esse critério corresponde, no campo da IA, ao conceito de defeito de concepção ou de projeto, consagrado pelo Código de Defesa do Consumidor (art. 12, § 1º, I): o produto que apresenta defeito já em sua origem, independentemente de como foi fabricado ou utilizado.
Esse tipo de falha estrutural pode ser identificado por dois caminhos principais. O primeiro é a repetição de eventos danosos semelhantes: quando um sistema de IA causa, em diferentes contextos e versões, danos de mesma natureza, essa frequência anormal aponta para um problema nos algoritmos subjacentes, incompatível com as expectativas legítimas da sociedade. O segundo é um único fato excepcionalmente grave que revele um desvio significativo em relação à vocação esperada do sistema. A doutrina menciona o exemplo de modelos de carros autônomos que, em diferentes versões, causam regularmente acidentes de mesma natureza: essa frequência anormal indicaria um problema estrutural nos algoritmos de navegação, incompatível com as expectativas de segurança que legitimam a colocação desses veículos no mercado.
Custo-Benefício: A Dimensão Macroeconômica da Antijuridicidade
O critério do "cálculo de custo-benefício" (l'IA condamnée au terme d'un calcul bénéfice/risque), inspirado no direito norte-americano — especialmente na fórmula Hand, desenvolvida pelo juiz Learned Hand no caso United States v. Carroll Towing Co. (1947) —, coteja os benefícios sociais da IA com os danos causados, podendo levar à proibição de uso quando os prejuízos superarem claramente as vantagens oferecidas. A avaliação se daria em nível macroscópico, analisando o dispositivo estrutural em si, e não a versão específica envolvida em um caso isolado.
Contudo, verificou-se que esse critério apresenta limitações práticas consideráveis. Seu caráter necessariamente vago oferece ampla liberdade ao julgador, dificultando a previsibilidade das decisões. Além disso, o cálculo de custo-benefício somente funciona a posteriori, quando os danos já se acumularam, limitando sua aplicabilidade em cenários preventivos. Esses limites explicam por que o AI Act europeu e o PL 2.338/2023 brasileiro optaram por uma abordagem baseada em categorias de risco pré-definidas, em vez de remeter ao julgador a avaliação caso a caso dos custos e benefícios de cada sistema: a previsibilidade regulatória, nesse campo, é um valor em si mesmo, pois é condição para que os atores econômicos possam planejar suas atividades de desenvolvimento e operação de IA com segurança jurídica razoável.
O Comportamento Humano como Peça-Chave da Análise
Embora os critérios descritos aparentemente focalizem a máquina, o comportamento humano ressurge, invariavelmente, como peça-chave da análise jurídica. O uso negligente ou temerário de um software complexo enquadra-se em um regime de responsabilidade análogo ao das atividades perigosas, impondo dever de reparação objetiva a quem opera sistemas autônomos de alto risco sem os devidos cuidados. A análise da estrutura algorítmica defeituosa remete aos atos de concepção e projeto dos desenvolvedores; a avaliação da expectativa legítima remete aos atos de comunicação e de definição de funcionalidades dos distribuidores; o critério da simples implicação remete à escolha dos operadores de utilizar tecnologias reconhecidamente perigosas sem cautelas adequadas.
Em síntese, a aprofundada análise dos critérios de antijuridicidade nos sistemas de IA confirma a tese central que percorre toda a doutrina contemporânea da responsabilidade civil: a tecnologia, por mais autônoma que seja, não substitui o ser humano como sujeito de direitos e deveres. O que muda é a complexidade das cadeias causais, a velocidade dos processos decisórios e a escala dos impactos — o que, por sua vez, exige do ordenamento jurídico instrumental analítico mais sofisticado, mas não a abandono dos conceitos fundamentais que estruturam a responsabilidade civil desde Pothier e os redatores do Code Napoléon.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".