A integração da inteligência artificial em redes sociais e algoritmos de recomendação acentua esse problema, pois o estímulo ao engajamento pode potencializar notícias falsas e conteúdos difamatórios. Nesse cenário, a responsabilidade civil atinge tanto os desenvolvedores de IA, que projetam esses sistemas, quanto os distribuidores que os implementam sem mecanismos de correção ou moderação eficientes. A ausência de transparência na priorização de conteúdo polêmico ou sensacionalista agrava os riscos de danos morais e materiais, dificultando a tutela da honra, da imagem e da privacidade248. Nesse sentido, a chamada “injustiça do dano” traduz a ilicitude objetiva que dá ensejo à obrigação de indenizar, indo além de hipóteses tipicamente previstas em lei249. Segundo essa perspectiva, o juízo de responsabilidade pode (e deve) valer-se de cláusulas gerais que permitam abarcar as complexas situações de dano surgidas, por exemplo, do uso de IA em atividades cotidianas ou de grandes corporações250. Nas palavras de Caitlin Mulholland, “os danos gerados por IA autônoma reclamam uma análise renovada das relações entre sujeitos (humanos) e objetos (sistemas tecnológicos)”, pois a autonomia decisória rompe a previsibilidade antes atribuída às ferramentas251. As teorias do risco, como veremos adiante (Capítulo 3), ao deslocarem o foco da culpa para a reparação do “prejuízo injusto”252 (ampliando a responsabilidade para quem, em razão da atividade ou da autonomia da IA, provoca danos), já demonstram abertura para lidar com grande parte desses desafios. Isso não quer dizer que as respostas regulatórias que estão surgindo, no Brasil e no exterior, não sejam importantíssimas para lidar com a matéria. No contexto europeu, por exemplo, o recentemente aprovado “AI Act” (Regulamento do Parlamento Europeu e do Conselho que estabele248 Tomasevicius Filho, 2023, pp. 428-430. 249 Conforme a conceituação de Maria Celina Bodin de Moraes, o dano é considerado injusto quando não se mostra razoável que a vítima permaneça desamparada, analisados os interesses contrapostos. Moraes, Maria Celina Bodin de. Danos à Pessoa Humana. Rio de Janeiro: Renovar, 2003, p. 179. Apud Mulholland, Caitlin. Responsabilidade Civil e Processos Decisórios Autônomos em Sistemas de Inteligência Artificial (IA): Autonomia, Imputabilidade e Responsabilidade. In: Frazão, Ana; Mulholland, Caitlin (Coord.). Inteligência Artificial e Direito: Ética, Regulação e Responsabilidade [Ebook]. São Paulo: Revista dos Tribunais, 2019, p. 15.3. 250 Mulholland, 2019, p. 15.3. 251 Ibidem, p. 15.4. 252 Idem.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".