Voltar ao Blog
Responsabilidade CivilCapítulo 2

O Dano: Aplicações e Implicações

Aplicações e implicações do dano na responsabilidade civil por inteligência artificial: injustiça do dano, cláusulas gerais, AI Act europeu e a regulação brasileira pelo PL 2338/23.

Alessandro Lavorante 20 de setembro de 2024 7 min de leitura

Inteligência Artificial, Redes Sociais e a Amplificação do Dano

A integração da inteligência artificial em redes sociais e algoritmos de recomendação acentua de modo preocupante o problema dos danos digitais, pois o estímulo ao engajamento pode potencializar a circulação de notícias falsas e de conteúdos difamatórios. Nesse cenário, a responsabilidade civil alcança tanto os desenvolvedores de IA, que projetam esses sistemas, quanto os distribuidores que os implementam sem mecanismos de correção ou moderação eficientes.

A ausência de transparência na priorização de conteúdo polêmico ou sensacionalista agrava os riscos de danos morais e materiais, dificultando a tutela da honra, da imagem e da privacidade. Verificou-se que os algoritmos de recomendação operam segundo lógicas de maximização do engajamento que, por sua natureza, privilegiam conteúdos emocionalmente carregados — o que inclui, frequentemente, conteúdos falsos, odiosos ou difamatórios. O resultado é uma amplificação sistêmica do dano que transcende a esfera individual e atinge a integridade do espaço público de informação.

A Injustiça do Dano como Critério de Imputação

Nesse contexto, a chamada "injustiça do dano" traduz a ilicitude objetiva que dá ensejo à obrigação de indenizar, indo além de hipóteses tipicamente previstas em lei. Segundo Maria Celina Bodin de Moraes, o dano é considerado injusto quando não se mostra razoável que a vítima permaneça desamparada, analisados os interesses contrapostos das partes envolvidas.

Parece-nos que esse critério de injustiça é particularmente relevante no contexto dos danos produzidos por sistemas de IA, pois frequentemente esses danos não se enquadram nas hipóteses típicas de ilicitude previstas nas normas tradicionais, mas decorrem de lógicas sistêmicas que, consideradas isoladamente, poderiam parecer legítimas. A aplicação do critério da injustiça permite ao intérprete transcender os limites das categorias positivadas e tutelar situações de lesão que, pela sua novidade, ainda não encontraram acolhida normativa expressa.

Segundo essa perspectiva, o juízo de responsabilidade pode e deve valer-se de cláusulas gerais que permitam abarcar as complexas situações de dano surgidas do uso de IA em atividades cotidianas ou de grandes corporações. O art. 186 do Código Civil, ao definir o ato ilícito por referência ao dano injusto causado a outrem, e o art. 927, ao estabelecer o dever de reparação de quem causa dano em razão de atividade de risco, oferecem as bases normativas para essa abertura interpretativa.

Autonomia Decisória e os Limites da Responsabilidade Tradicional

Nas palavras de Caitlin Mulholland, "os danos gerados por IA autônoma reclamam uma análise renovada das relações entre sujeitos (humanos) e objetos (sistemas tecnológicos)", pois a autonomia decisória rompe a previsibilidade antes atribuída às ferramentas. Com efeito, um sistema de IA que aprende com dados e modifica seu comportamento ao longo do tempo não pode ser reduzido à condição de simples instrumento do seu operador; suas decisões podem produzir resultados que nenhum ser humano antecipou ou pretendeu, o que desafia os esquemas tradicionais de imputação de responsabilidade.

Verificou-se que as teorias do risco — ao deslocarem o foco da culpa para a reparação do "prejuízo injusto" e ao ampliarem a responsabilidade para quem, em razão da atividade ou da autonomia da IA, provoca danos — já demonstram abertura para lidar com grande parte desses desafios. O parágrafo único do art. 927 do Código Civil, ao prever responsabilidade objetiva para atividades que impliquem risco para os direitos de outrem, fornece o fundamento normativo para a responsabilização objetiva dos operadores de sistemas de IA que, por sua natureza, apresentam risco intrínseco para terceiros.

Parece-nos, contudo, que a mera aplicação das categorias do risco não é suficiente para responder a todas as questões suscitadas pela autonomia dos sistemas de IA. A imprevisibilidade dos resultados de sistemas de aprendizado de máquina introduz um elemento de incerteza que pode comprometer a própria identificação do nexo de causalidade, questão que será aprofundada nos capítulos seguintes.

O AI Act Europeu: Estrutura e Implicações

No contexto europeu, o recentemente aprovado AI Act (Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho) adota um enfoque de níveis de risco para os sistemas de IA, exigindo, no art. 9º, que fornecedores e utilizadores apliquem um sistema de gestão de risco contínuo no desenvolvimento e na utilização de aplicações de inteligência artificial. Esse dispositivo revela a preocupação de evitar danos significativos por meio de procedimentos de governança que antecipem eventuais falhas.

Adicionalmente, o art. 15 do AI Act, relativo à exatidão, solidez e cibersegurança, exige transparência para sistemas que interajam com seres humanos, impondo obrigações de esclarecimento quanto à natureza do sistema, visando reduzir possíveis prejuízos relacionados à desinformação ou manipulação automatizada. A aprovação final do Regulamento ocorreu em 13 de março de 2024, com ampla maioria de 523 votos a favor, e o texto foi publicado oficialmente em 12 de julho de 2024, tendo entrado em vigor 20 dias após a publicação.

Verificou-se que o AI Act organiza os sistemas de IA em quatro categorias de risco — inaceitável, alto, limitado e mínimo — e estabelece obrigações progressivamente mais rigorosas conforme o grau de risco classificado. Os sistemas de alto risco, definidos no Anexo III do Regulamento, incluem aplicações em infraestruturas críticas, educação, emprego, acesso a serviços essenciais, aplicação da lei, migração e administração da justiça. Para esses sistemas, o AI Act exige avaliação de conformidade prévia, registro em base de dados da União Europeia e supervisão humana contínua.

Implicações do Regime Europeu para a Prevenção de Danos

A lógica preventiva do AI Act é, em nosso ver, um dos seus aspectos mais relevantes do ponto de vista da responsabilidade civil. Ao impor obrigações de gestão de risco e transparência como condições de acesso ao mercado, o Regulamento cria incentivos estruturais para que os operadores de sistemas de IA adotem práticas que reduzam a probabilidade de danos. A violação dessas obrigações pode, por si só, constituir indício relevante de negligência na análise de responsabilidade civil.

Parece-nos, ademais, que o AI Act tem implicações além do território europeu, dado que se aplica a fornecedores estabelecidos fora da União Europeia cujos sistemas sejam disponibilizados no mercado interno (art. 2º, 1). Empresas brasileiras que operem ou pretendam operar no mercado europeu deverão adaptar seus sistemas às exigências do Regulamento, o que pode induzir uma elevação geral dos padrões de conformidade com efeitos favoráveis para a proteção contra danos também no Brasil.

O PL 2338/23 e a Resposta Regulatória Brasileira

No ordenamento jurídico brasileiro, o PL 2338/23 prevê uma classificação de risco para sistemas de IA (Capítulo III, arts. 13 a 18) e delineia deveres de transparência e prestação de contas em seu art. 5º, bem como regras de responsabilização em seu Capítulo V (arts. 27 a 29). Inspirado em parte pelo debate europeu, o Projeto dispõe sobre a necessidade de que fornecedores de IA observem boas práticas de segurança e apresentem documentação que permita rastrear decisões automatizadas, aproximando-se do escopo preventivo visto no AI Act.

O caput do art. 27 da atual redação do Projeto adota expressamente o princípio da reparação integral do dano, estabelecendo que "o fornecedor ou operador de sistema de inteligência artificial que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema". Essa formulação é particularmente relevante, pois afasta argumentos que poderiam ser utilizados para limitar a responsabilidade em razão da autonomia do sistema.

Verificou-se que o PL 2338/23 ainda aguarda votação no Congresso Nacional, tendo sido objeto de análise em comissões temáticas desde sua apresentação em 2023. A aprovação do texto — mesmo que com modificações — representaria um avanço significativo na construção de um regime jurídico específico para os danos causados por sistemas de IA no Brasil.

Considerações Finais

As aplicações e implicações do conceito de dano no contexto da inteligência artificial revelam a necessidade de uma abordagem jurídica que combine a aplicação criativa dos institutos clássicos com a construção de novos instrumentos regulatórios adaptados à realidade tecnológica. O critério da injustiça do dano, as teorias do risco, o AI Act europeu e o PL 2338/23 brasileiro constituem, em conjunto, um repertório normativo e doutrinário em construção, que parece orientar-se pelo imperativo de que as vítimas de danos tecnológicos não suportem sozinhas o ônus das falhas e dos riscos de sistemas desenvolvidos e operados por terceiros.

DanoPrejuízoIndenização

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.