Consentimento Informado e Proteção de Dados na Perspectiva Comparada
A análise comparada das causas de justificação da conduta antijurídica em contextos de inteligência artificial revela convergências e divergências significativas entre os ordenamentos jurídicos que mais avançaram na regulação dessas tecnologias. Um ponto de encontro notável entre o direito brasileiro, o direito europeu e os principais sistemas de common law é a exigência de que o consentimento do titular dos dados — quando invocado como excludente da ilicitude — seja efetivamente livre, específico, informado e inequívoco. Esse padrão, consolidado no Regulamento Geral de Proteção de Dados europeu (RGPD) e incorporado pela LGPD brasileira, reflete uma preocupação comum: a de que a mera obtenção formal de consentimento não seja suficiente para legitimar o uso de dados pessoais sensíveis em sistemas experimentais de IA.
Quanto ao consentimento da pessoa lesada, o exemplo mais polêmico é o de plataformas experimentais de machine learning que exigem acesso profundo aos registros de comportamento de usuários em redes sociais para aprimorar algoritmos de análise de tendências de saúde mental. Os participantes, após serem esclarecidos sobre a possibilidade de conclusões incorretas e sobre eventuais riscos de vazamento de dados sensíveis, aceitam livremente submeter-se à coleta intensiva de informações. Se alguém sofrer dano reputacional com a divulgação equivocada de resultados, mas ficar evidente que consentiu de modo esclarecido e voluntário, pode-se reduzir ou excluir a responsabilidade da empresa. O elemento-chave é a anuência efetiva e informada, com total conhecimento dos riscos e limites do experimento, bem como da efetiva disponibilidade comercial desses dados pessoais sensíveis — condição que, nos termos do art. 11, § 3º, da LGPD, está sujeita a regulamentação pela Autoridade Nacional de Proteção de Dados.
A Assunção de Risco em Perspectiva Comparada
No contexto da assunção de risco por participação em tecnologias autônomas experimentais, a visão comparada evidencia diferenças relevantes na distribuição do ônus probatório entre os sistemas jurídicos. Nos Estados Unidos, a doutrina da assumption of risk tem tradição consolidada, especialmente em contextos esportivos e de atividades de risco voluntariamente assumidas, mas vem sendo progressivamente restringida em situações em que há assimetria informacional significativa entre o fornecedor e o usuário. Na Europa, o AI Act (Regulamento UE 2024/1689) adota postura mais protetiva: exige que fornecedores de sistemas de IA de alto risco disponibilizem informações suficientemente claras sobre os riscos do sistema, em linguagem acessível ao usuário final, antes de qualquer consentimento.
Suponha-se uma empresa que oferece testes com um protótipo de veículo autônomo de alta velocidade, ainda em fase inicial de desenvolvimento. Os usuários, ao decidirem participar, são informados das falhas potenciais nos sensores de navegação e do risco de acidentes, mas prosseguem atraídos pela inovação. Se ocorre um acidente e a perícia confirma que o condutor-teste ignorou alertas explícitos do sistema e não adotou cautelas mínimas, a responsabilidade do fabricante pode ser atenuada ou até excluída. Nesse caso, a própria vítima, tendo ciência dos riscos experimentais, concorre de forma decisiva para o evento danoso, descaracterizando ou limitando a imputação de culpa à criadora da tecnologia. Contudo, no direito brasileiro, o art. 6º, VIII, do Código de Defesa do Consumidor prevê a inversão do ônus da prova em favor do consumidor hipossuficiente — o que limita consideravelmente a eficácia prática da assunção de risco como excludente de responsabilidade em relações de consumo envolvendo tecnologia avançada.
Teorias Específicas para Condutas em Sistemas Autônomos
Em vista das peculiaridades dos sistemas autônomos, desenvolvem-se na doutrina comparada teorias específicas para que as condutas dos sujeitos envolvidos no desenvolvimento desses sistemas sejam aferidas como ilícitas ou antijurídicas. Essas teorias buscam construir padrões objetivos de avaliação da conduta que não dependam da análise da intenção subjetiva do desenvolvedor ou do operador, mas que se concentrem nos efeitos produzidos pelo comportamento do sistema e na adequação técnica das escolhas realizadas ao longo de seu ciclo de vida.
Um dos trabalhos mais influentes nesse campo, no âmbito do direito continental europeu, é a dissertação de mestrado de Adrien Bonnet pela Université Panthéon-Assas — Paris II, intitulada "La Responsabilité du Fait de L'Intelligence Artificielle" (2015). Bonnet apresenta diversos critérios de responsabilização por danos supostamente "causados pela IA" que priorizam a objetividade ao afastar-se da noção de culpa atrelada à consciência humana. A análise proposta por Bonnet se concentra nos efeitos do comportamento da IA, e não nos processos decisórios ou em sua concepção, bastando estabelecer um vínculo causal entre o fato danoso e a atuação da IA para que se possa imputar responsabilidade aos atores humanos envolvidos na cadeia de desenvolvimento.
O Critério da Simples Implicação e do Fato Anormal
O primeiro dos critérios apresentados por Bonnet é o da "simples implicação" (simple implication dans le dommage), aplicável a robôs potencialmente perigosos. Para esse critério, basta o nexo entre a atuação do dispositivo e o fato danoso para gerar o dever de indenizar, prescindindo-se de qualquer análise de culpa ou de previsibilidade. Bonnet destaca, contudo, que tal critério deve ser aplicado com moderação, pois sua automaticidade tende a ignorar nuances relevantes: nem todo dano associado ao funcionamento de um sistema de IA deve ser considerado antijurídico, especialmente em atividades em que certo nível de risco é inerente e socialmente aceito.
O segundo critério proposto por Bonnet é o da "anormalidade do fato" (l'anormalité du fait de l'IA), em que se verifica se o sistema atuou de forma diversa do que se espera de uma IA padrão semelhante, sem avaliar a máquina em comparação ao ser humano. A responsabilidade é atribuída quando os resultados produzidos pela IA divergem do comportamento que seria razoavelmente esperado de dispositivos de mesma natureza e funcionalidade. Não se avalia a IA em comparação ao ser humano, mas em relação ao padrão de uma IA equivalente. Bonnet exemplifica com sistemas de trading financeiro: um algoritmo que exceda os limites normativos estabelecidos apresentaria um comportamento anormal, ensejando responsabilidade.
Expectativa Legítima e Cálculo de Custo-Benefício
Bonnet sugere também a perspectiva da "expectativa legítima" (l'espérance légitime), que analisa se a IA ultrapassou as funções que a sociedade poderia razoavelmente aguardar. Esse critério opera como uma variação da anormalidade do fato, mas com foco na perspectiva social e no contrato implícito entre desenvolvedores e usuários quanto ao comportamento esperado do sistema. No caso da IA, a expectativa legítima não recai sobre o dispositivo em si, mas sobre seus atos: ela pode ter sentido positivo, quando a IA não atinge o nível de segurança ou eficiência esperado, ou negativo, quando o dispositivo ultrapassa suas funções esperadas e produz resultados inesperados.
Por fim, o critério do "cálculo de custo-benefício" (l'IA condamnée au terme d'un calcul bénéfice/risque), inspirado no direito norte-americano, coteja os benefícios sociais da IA com os danos causados, podendo levar à proibição de uso quando os prejuízos superarem claramente as vantagens oferecidas. Esse critério, embora de aplicação difícil por sua natureza necessariamente retrospectiva, encontra eco na abordagem regulatória do AI Act europeu, que classifica os sistemas de IA em categorias de risco e impõe restrições ou proibições àqueles cujos benefícios não compensam os riscos identificados.
Convergências e Divergências com o Direito Brasileiro
A visão comparada permite identificar que o direito brasileiro, embora carente de regulação específica consolidada para a IA, dispõe de instrumentos jurídicos suficientes para absorver os critérios desenvolvidos pela doutrina europeia e norte-americana. A cláusula geral de responsabilidade objetiva do art. 927, parágrafo único, do Código Civil, o regime de responsabilidade pelo fato do produto e do serviço do Código de Defesa do Consumidor (arts. 12 a 14 e 17 a 20) e os deveres de informação, transparência e segurança da LGPD formam um arcabouço jurídico capaz de dar conta dos principais critérios de imputação discutidos na literatura comparada. O PL 2.338/2023 aprofunda essa integração ao prever, especificamente para sistemas de IA de alto risco, um regime de responsabilidade objetiva que dispensa a demonstração de culpa do desenvolvedor ou do operador.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".