Novos Parâmetros para a Aferição da Ilicitude em Sistemas de IA
A crescente autonomia dos sistemas de inteligência artificial impõe ao direito um desafio até então inédito: como aferir a ilicitude ou a antijuridicidade de condutas quando o agente imediato do dano é uma entidade não humana, destituída de consciência e de capacidade volitiva? As tendências regulatórias contemporâneas, tanto no plano legislativo quanto no doutrinário, convergem para uma resposta que reposiciona o ser humano — e não a máquina — no centro da análise jurídica, mas o faz por meio de critérios objetivos que dispensam a investigação da intenção subjetiva do desenvolvedor ou do operador.
Os sujeitos envolvidos no desenvolvimento desses sistemas devem ter suas condutas aferidas como ilícitas ou antijurídicas a partir de parâmetros que priorizam a objetividade, afastando-se da noção de culpa atrelada à consciência humana. A análise concentra-se nos efeitos do comportamento da IA, e não nos processos decisórios ou em sua concepção: basta estabelecer um vínculo causal entre o fato danoso e a atuação da IA para que se possa imputar responsabilidade aos atores humanos pertinentes da cadeia de desenvolvimento e operação. Essa tendência, verificada tanto na doutrina francesa — especialmente nos trabalhos de Adrien Bonnet sobre "La Responsabilité du Fait de L'Intelligence Artificielle" — quanto nas iniciativas legislativas europeias e brasileiras, merece exame detido.
O Critério da Simples Implicação
O primeiro dos critérios objetivos discutidos na literatura comparada é o da "simples implicação" (simple implication dans le dommage), aplicável especialmente a robôs e sistemas potencialmente perigosos. Por esse critério, basta a demonstração do nexo entre a atuação do dispositivo e o fato danoso para gerar o dever de indenizar, prescindindo-se de qualquer investigação sobre a culpa do desenvolvedor ou do operador. Trata-se, na prática, de uma forma de responsabilidade objetiva centrada no vínculo causal, que facilita o acesso da vítima à reparação e simplifica o encargo probatório em litígios envolvendo tecnologias de alta complexidade.
Cabe ressaltar, contudo, que esse critério deve ser aplicado com moderação. Sua automaticidade tende a ignorar nuances relevantes: a mera participação de um sistema de IA em uma cadeia de eventos não é, por si só, suficiente para gerar responsabilidade, especialmente em atividades em que certo nível de risco é inerente e socialmente aceito. Um sistema de diagnóstico médico assistido por IA que, em determinados casos, produza diagnósticos incorretos não deve, automaticamente, gerar responsabilidade objetiva por todos os casos de insucesso terapêutico: é necessário verificar se o comportamento do sistema se desviou do padrão esperado para dispositivos semelhantes nas mesmas condições de uso.
A Anormalidade do Fato como Critério Central
O critério que ocupa papel central na literatura sobre responsabilidade por atos da inteligência artificial é o da "anormalidade do fato" (l'anormalité du fait de l'IA). Por esse parâmetro, verifica-se se o sistema atuou de forma diversa do que se espera de uma IA padrão semelhante, sem avaliar a máquina em comparação ao ser humano. A responsabilidade é atribuída quando os resultados produzidos pela IA divergem do comportamento que seria razoavelmente esperado de dispositivos de mesma natureza e funcionalidade.
Trata-se de padrão objetivo já presente no direito de responsabilidade civil — aplicável às coisas inanimadas — e adequado à IA, que é um "agente" incapaz de julgamento moral. Um algoritmo de trading financeiro que exceda os limites normativos estabelecidos e desencadeie operações proibidas apresenta um comportamento anormal que enseja responsabilidade dos atores humanos que o conceberam e operam. Propõe-se também uma perspectiva mais ambiciosa, segundo a qual a anormalidade se verificaria diretamente a partir do dano sofrido pela vítima: a IA geraria responsabilidade quando fosse anormal que a vítima suportasse o prejuízo, aproximando-se da lógica que, no direito brasileiro, fundamenta a responsabilidade objetiva pelo risco da atividade.
Expectativa Legítima, Estrutura Algorítmica e Custo-Benefício
Além dos critérios já mencionados, a doutrina comparada aponta mais dois parâmetros de relevo para a aferição da conduta antijurídica em sistemas autônomos. A "expectativa legítima" (l'espérance légitime) analisa se a IA ultrapassou as funções que a sociedade poderia razoavelmente aguardar — o que, em última análise, diz respeito à falha humana em antecipar ou corrigir riscos. Esse critério permite, com razoável clareza, estabelecer os limites entre a funcionalidade esperada da IA e os danos que ultrapassam a expectativa social: uma IA jornalista que emita comentários ofensivos ou divulgue dados confidenciais de forma inadvertida ultrapassa as expectativas legítimas associadas a sua função; por outro lado, a IA não causaria responsabilização se reportasse informações precisas, ainda que prejudiciais a determinados interesses.
O critério da "IA enquanto estrutura" (IA structurelle) propõe que, além de considerar atos individuais da IA em sua operação, deve-se analisar o próprio conjunto de instruções abstratas que a regem, que pode ser intrinsecamente defeituoso. Esse tipo de falha pode ser identificado por dois caminhos: a repetição de eventos danosos semelhantes, indicando um padrão anormal de comportamento, ou um único fato excepcionalmente grave que revele um desvio significativo em relação à vocação esperada do sistema. Por fim, o critério do "cálculo de custo-benefício" (l'IA condamnée au terme d'un calcul bénéfice/risque), inspirado no direito norte-americano, coteja os benefícios sociais da IA com os danos causados, podendo levar à proibição de uso quando os prejuízos superarem claramente as vantagens oferecidas.
O AI Act Europeu e o PL 2.338/2023: Tendências Legislativas
As tendências regulatórias mais recentes refletem, em grande medida, os debates doutrinários descritos acima. O AI Act europeu (Regulamento UE 2024/1689) adota uma abordagem baseada em risco: classifica os sistemas de IA em quatro categorias — inaceitável, alto risco, risco limitado e risco mínimo — e impõe obrigações proporcionais à severidade dos riscos identificados. Para os sistemas de alto risco, o regulamento exige avaliações de conformidade rigorosas antes da colocação no mercado, documentação técnica detalhada, supervisão humana efetiva e mecanismos de explicabilidade e auditabilidade. A violação dessas obrigações é, em si, indicativa de conduta antijurídica apta a gerar responsabilidade civil.
No Brasil, o PL 2.338/2023, em tramitação no Senado Federal, adota abordagem semelhante ao AI Act em diversos aspectos, mas apresenta especificidades relevantes quanto ao regime de responsabilidade civil. Para sistemas de IA de alto risco, o projeto prevê responsabilidade objetiva do fornecedor, com inversão do ônus da prova em favor da vítima e possibilidade de desconsideração da personalidade jurídica em casos de abuso. Verificou-se que essa escolha legislativa se alinha tanto à tradição do direito consumerista brasileiro — especialmente os arts. 12 e 14 do CDC — quanto às recomendações de organismos internacionais, como a UNESCO e a OCDE, que apontam para a necessidade de regimes de responsabilidade mais rigorosos para tecnologias de alto impacto.
O Comportamento Humano como Peça-Chave
Embora os critérios doutrinários descritos aparentemente focalizem a máquina, o comportamento humano ressurge como peça-chave da análise. O uso negligente ou temerário de um software complexo enquadra-se em um regime de responsabilidade análogo ao das atividades perigosas, impondo dever de reparação objetiva a quem opera sistemas autônomos de alto risco sem os devidos cuidados. As tendências regulatórias — sejam elas doutrinárias, como os critérios de Bonnet, ou legislativas, como o AI Act e o PL 2.338/2023 — convergem para a mesma conclusão: a antijuridicidade nos sistemas de IA é sempre, em última análise, antijuridicidade humana, porque são os seres humanos que concebem, treinam, implantam, operam e supervisionam essas tecnologias. A responsabilidade, portanto, não desaparece com a autonomia da máquina; ela se redistribui, com maior ou menor grau de objetividade, entre os atores humanos que compõem a cadeia de valor da inteligência artificial.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".