Voltar ao Blog
Responsabilidade CivilCapítulo 2

O Dano: Perspectivas e Desafios

Perspectivas e desafios do dano na era digital: danos por IA, Big Data, reconhecimento facial, ambiente virtual e o direito ao esquecimento sob a ótica da responsabilidade civil brasileira.

Alessandro Lavorante 18 de setembro de 2024 7 min de leitura

O Dano na Era Digital: Novos Horizontes

A análise das perspectivas e dos desafios que o dano enfrenta na contemporaneidade impõe o reconhecimento de que o ambiente digital produziu formas de lesão sem precedente histórico. Parece-nos que a aceleração tecnológica das últimas décadas não apenas multiplicou as hipóteses de dano, como também alterou qualitativamente a natureza, a extensão e a dificuldade de reparação das lesões produzidas. O dano que antes se continha nos limites físicos e temporais de uma interação presencial pode hoje alcançar dimensões planetárias em frações de segundo.

Tais danos podem ser materiais, morais ou ambos, e podem abranger tanto indivíduos quanto coletividades, conforme a amplitude do uso da tecnologia e a gravidade do erro algorítmico. Em meio digital, a análise de navegação e a utilização de Big Data suscitam violações a direitos como a privacidade e a honra, ensejando danos morais e, eventualmente, materiais, sobretudo quando resultam em perda de oportunidade ou custo financeiro adicional. Verificou-se que, nesse contexto, a tutela reparatória clássica encontra dificuldades estruturais decorrentes da opacidade dos sistemas, da dificuldade de individualização do responsável e da escala exponencial dos danos produzidos.

Riscos Algorítmicos na Medicina e na Segurança Pública

Na seara médica, os riscos se manifestam de modo particularmente grave em diagnósticos incorretos ou na ausência de indicações terapêuticas devidas, elevando a probabilidade de danos morais e materiais decorrentes da atividade médica pautada em sistemas automatizados. Quando um sistema de IA, utilizado como suporte à decisão clínica, produz um resultado errôneo em razão de viés nos dados de treinamento, a vítima pode sofrer lesões irreversíveis à saúde, além de prejuízos patrimoniais decorrentes de tratamentos inadequados ou da perda da possibilidade de tratamento oportuno.

Em reconhecimento facial, o mau funcionamento ou o viés racial pode gerar acusações criminais equivocadas, com prejuízos à liberdade de ir e vir, à honra e à própria vida, em casos de violência estatal. Parece-nos que esses casos ilustram com especial clareza o potencial destrutivo dos erros algorítmicos quando aplicados em contextos de alta relevância social: a falha do sistema não é apenas técnica, mas produz consequências jurídicas gravíssimas para pessoas concretas, frequentemente pertencentes a grupos historicamente vulneráveis.

No plano econômico, a pessoa injustamente acusada ou impedida de exercer determinada atividade laboral sofre danos materiais, sob a forma de dano emergente ou lucros cessantes. A ausência de mecanismos eficientes de contestação das decisões automatizadas agrava esse quadro, pois a vítima frequentemente desconhece que foi objeto de uma decisão algorítmica e, mesmo quando o descobre, carece de instrumentos para compreender e questionar o processo decisório opaco.

A Potencialização do Dano no Ambiente Virtual

No ambiente virtual, a potencialização do dano ganha escala inédita. A internet é uma rede eletrônica mundial que possibilita a qualquer indivíduo, munido de um simples dispositivo móvel, publicar e difundir informações em tempo real, causando prejuízos materiais e morais onde quer que a vítima esteja. Verificou-se que essa capacidade de difusão universal altera fundamentalmente a equação tradicional da responsabilidade civil, pois o dano deixa de ser um evento localizado e passa a ter caráter ubíquo e potencialmente permanente.

A universalização e a perpetuidade das mensagens, imagens, fotos ou vídeos postados online tornam os efeitos do dano praticamente ilimitados, pois a divulgação atinge rapidamente milhões de usuários sem existir um ponto central de controle. Esse fenômeno repercute na colisão entre o direito à informação e o direito à privacidade, dificultando a remoção de conteúdos que maculam a honra ou a imagem das pessoas e ensejando discussões acerca do chamado "direito ao esquecimento".

O Direito ao Esquecimento e seus Fundamentos Jurídicos

O direito ao esquecimento — ou right to be forgotten, na terminologia europeia — emergiu como resposta jurídica à permanência indefinida de informações lesivas no ambiente digital. No Brasil, o debate ganhou projeção a partir do julgamento pelo Supremo Tribunal Federal do Recurso Extraordinário nº 1.010.606, no qual a Corte reconheceu, por maioria, a incompatibilidade do direito ao esquecimento com a Constituição Federal, por entender que ele colide com a liberdade de expressão e o direito à informação.

Parece-nos, contudo, que a questão não se resolve com uma fórmula absoluta. A LGPD, em seus arts. 18, IV e 16, consagra o direito à eliminação dos dados pessoais e à limitação do tratamento, o que pode configurar, em determinadas hipóteses, uma forma de tutela análoga ao direito ao esquecimento no contexto do tratamento de dados. A tensão entre a livre circulação de informações e a proteção da personalidade permanece como um dos campos de maior complexidade na doutrina e na jurisprudência contemporâneas.

O Código Civil, em seus arts. 11 a 21, tutela os direitos da personalidade — incluindo a honra, a imagem, a privacidade e o nome — de forma abrangente, admitindo a cumulação de pretensões de cessar o ato lesivo com a correspondente indenização por danos materiais e morais. Verificou-se que essas disposições, interpretadas à luz da Constituição e da LGPD, oferecem um arcabouço normativo relevante para o tratamento dos danos produzidos no ambiente digital.

Algoritmos de Recomendação e Danos à Esfera Pública

A integração da inteligência artificial em redes sociais e algoritmos de recomendação acentua o problema do dano digital, pois o estímulo ao engajamento pode potencializar notícias falsas e conteúdos difamatórios. Nesse cenário, a responsabilidade civil atinge tanto os desenvolvedores de IA, que projetam esses sistemas, quanto os distribuidores que os implementam sem mecanismos de correção ou moderação eficientes.

A ausência de transparência na priorização de conteúdo polêmico ou sensacionalista agrava os riscos de danos morais e materiais, dificultando a tutela da honra, da imagem e da privacidade. Parece-nos que a natureza opaca desses sistemas — cujos critérios de amplificação de conteúdo frequentemente não são divulgados ao público — constitui um obstáculo estrutural à responsabilização, que apenas a regulação específica pode superar.

O PL 2338/23 prevê, em seu art. 5º, obrigações de transparência para sistemas de IA que interajam com o público, exigindo que os agentes de IA forneçam informações claras sobre a natureza automatizada do sistema. Essa previsão é relevante, mas parece-nos insuficiente diante da complexidade dos danos produzidos pelos algoritmos de recomendação em escala massiva.

Desafios Probatórios e a Inversão do Ônus da Prova

Um dos maiores desafios práticos na tutela dos danos digitais é a dificuldade probatória. A vítima de um dano causado por algoritmo frequentemente desconhece a cadeia causal que produziu o resultado lesivo, não tem acesso ao código-fonte do sistema e carece de expertise técnica para compreender o funcionamento do modelo. Verificou-se que, nesse contexto, os mecanismos tradicionais de prova são manifestamente insuficientes.

O Código de Defesa do Consumidor, em seu art. 6º, VIII, prevê a inversão do ônus da prova em favor do consumidor quando for verossímil a alegação ou quando for ele hipossuficiente. Parece-nos que essa disposição, aplicada ao contexto dos danos algorítmicos nas relações de consumo, oferece um instrumento valioso para superar o desequilíbrio informacional entre a vítima e o fornecedor do sistema de IA.

O PL 2338/23, em seu art. 27, § 2º, também prevê a inversão do ônus da prova em favor da vítima quando o sistema de IA não for classificado como de alto risco, presumindo a culpa do agente causador. Essa previsão, embora limitada em seu escopo, aponta na direção correta: a assimetria de informação entre a vítima e o operador do sistema justifica a redistribuição do encargo probatório como medida de equilíbrio processual.

Considerações Finais

As perspectivas e os desafios do dano na era digital revelam a insuficiência das respostas jurídicas tradicionais diante de um fenômeno de complexidade e escala crescentes. A tutela efetiva das vítimas de danos algorítmicos, digitais e tecnológicos exige a combinação de instrumentos normativos — como a LGPD, o CDC e o PL 2338/23 —, de mecanismos processuais adaptados — como a inversão do ônus da prova — e de uma postura interpretativa atenta às assimetrias estruturais que caracterizam as relações entre indivíduos e sistemas tecnológicos. Parece-nos que o direito brasileiro, embora ainda em processo de adaptação, dispõe de bases normativas e principiológicas suficientes para avançar nessa direção.

DanoPrejuízoIndenização

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco
Assistente Virtual
Online agora

Olá! 👋 Sou o assistente virtual do escritório Alessandro Lavorante. Como posso ajudá-lo hoje? Posso responder dúvidas sobre Direito Digital, Inteligência Artificial, LGPD, ECA Digital, Startups e outras áreas.