O Dano na Era Digital: Novos Horizontes
A análise das perspectivas e dos desafios que o dano enfrenta na contemporaneidade impõe o reconhecimento de que o ambiente digital produziu formas de lesão sem precedente histórico. Parece-nos que a aceleração tecnológica das últimas décadas não apenas multiplicou as hipóteses de dano, como também alterou qualitativamente a natureza, a extensão e a dificuldade de reparação das lesões produzidas. O dano que antes se continha nos limites físicos e temporais de uma interação presencial pode hoje alcançar dimensões planetárias em frações de segundo.
Tais danos podem ser materiais, morais ou ambos, e podem abranger tanto indivíduos quanto coletividades, conforme a amplitude do uso da tecnologia e a gravidade do erro algorítmico. Em meio digital, a análise de navegação e a utilização de Big Data suscitam violações a direitos como a privacidade e a honra, ensejando danos morais e, eventualmente, materiais, sobretudo quando resultam em perda de oportunidade ou custo financeiro adicional. Verificou-se que, nesse contexto, a tutela reparatória clássica encontra dificuldades estruturais decorrentes da opacidade dos sistemas, da dificuldade de individualização do responsável e da escala exponencial dos danos produzidos.
Riscos Algorítmicos na Medicina e na Segurança Pública
Na seara médica, os riscos se manifestam de modo particularmente grave em diagnósticos incorretos ou na ausência de indicações terapêuticas devidas, elevando a probabilidade de danos morais e materiais decorrentes da atividade médica pautada em sistemas automatizados. Quando um sistema de IA, utilizado como suporte à decisão clínica, produz um resultado errôneo em razão de viés nos dados de treinamento, a vítima pode sofrer lesões irreversíveis à saúde, além de prejuízos patrimoniais decorrentes de tratamentos inadequados ou da perda da possibilidade de tratamento oportuno.
Em reconhecimento facial, o mau funcionamento ou o viés racial pode gerar acusações criminais equivocadas, com prejuízos à liberdade de ir e vir, à honra e à própria vida, em casos de violência estatal. Parece-nos que esses casos ilustram com especial clareza o potencial destrutivo dos erros algorítmicos quando aplicados em contextos de alta relevância social: a falha do sistema não é apenas técnica, mas produz consequências jurídicas gravíssimas para pessoas concretas, frequentemente pertencentes a grupos historicamente vulneráveis.
No plano econômico, a pessoa injustamente acusada ou impedida de exercer determinada atividade laboral sofre danos materiais, sob a forma de dano emergente ou lucros cessantes. A ausência de mecanismos eficientes de contestação das decisões automatizadas agrava esse quadro, pois a vítima frequentemente desconhece que foi objeto de uma decisão algorítmica e, mesmo quando o descobre, carece de instrumentos para compreender e questionar o processo decisório opaco.
A Potencialização do Dano no Ambiente Virtual
No ambiente virtual, a potencialização do dano ganha escala inédita. A internet é uma rede eletrônica mundial que possibilita a qualquer indivíduo, munido de um simples dispositivo móvel, publicar e difundir informações em tempo real, causando prejuízos materiais e morais onde quer que a vítima esteja. Verificou-se que essa capacidade de difusão universal altera fundamentalmente a equação tradicional da responsabilidade civil, pois o dano deixa de ser um evento localizado e passa a ter caráter ubíquo e potencialmente permanente.
A universalização e a perpetuidade das mensagens, imagens, fotos ou vídeos postados online tornam os efeitos do dano praticamente ilimitados, pois a divulgação atinge rapidamente milhões de usuários sem existir um ponto central de controle. Esse fenômeno repercute na colisão entre o direito à informação e o direito à privacidade, dificultando a remoção de conteúdos que maculam a honra ou a imagem das pessoas e ensejando discussões acerca do chamado "direito ao esquecimento".
O Direito ao Esquecimento e seus Fundamentos Jurídicos
O direito ao esquecimento — ou right to be forgotten, na terminologia europeia — emergiu como resposta jurídica à permanência indefinida de informações lesivas no ambiente digital. No Brasil, o debate ganhou projeção a partir do julgamento pelo Supremo Tribunal Federal do Recurso Extraordinário nº 1.010.606, no qual a Corte reconheceu, por maioria, a incompatibilidade do direito ao esquecimento com a Constituição Federal, por entender que ele colide com a liberdade de expressão e o direito à informação.
Parece-nos, contudo, que a questão não se resolve com uma fórmula absoluta. A LGPD, em seus arts. 18, IV e 16, consagra o direito à eliminação dos dados pessoais e à limitação do tratamento, o que pode configurar, em determinadas hipóteses, uma forma de tutela análoga ao direito ao esquecimento no contexto do tratamento de dados. A tensão entre a livre circulação de informações e a proteção da personalidade permanece como um dos campos de maior complexidade na doutrina e na jurisprudência contemporâneas.
O Código Civil, em seus arts. 11 a 21, tutela os direitos da personalidade — incluindo a honra, a imagem, a privacidade e o nome — de forma abrangente, admitindo a cumulação de pretensões de cessar o ato lesivo com a correspondente indenização por danos materiais e morais. Verificou-se que essas disposições, interpretadas à luz da Constituição e da LGPD, oferecem um arcabouço normativo relevante para o tratamento dos danos produzidos no ambiente digital.
Algoritmos de Recomendação e Danos à Esfera Pública
A integração da inteligência artificial em redes sociais e algoritmos de recomendação acentua o problema do dano digital, pois o estímulo ao engajamento pode potencializar notícias falsas e conteúdos difamatórios. Nesse cenário, a responsabilidade civil atinge tanto os desenvolvedores de IA, que projetam esses sistemas, quanto os distribuidores que os implementam sem mecanismos de correção ou moderação eficientes.
A ausência de transparência na priorização de conteúdo polêmico ou sensacionalista agrava os riscos de danos morais e materiais, dificultando a tutela da honra, da imagem e da privacidade. Parece-nos que a natureza opaca desses sistemas — cujos critérios de amplificação de conteúdo frequentemente não são divulgados ao público — constitui um obstáculo estrutural à responsabilização, que apenas a regulação específica pode superar.
O PL 2338/23 prevê, em seu art. 5º, obrigações de transparência para sistemas de IA que interajam com o público, exigindo que os agentes de IA forneçam informações claras sobre a natureza automatizada do sistema. Essa previsão é relevante, mas parece-nos insuficiente diante da complexidade dos danos produzidos pelos algoritmos de recomendação em escala massiva.
Desafios Probatórios e a Inversão do Ônus da Prova
Um dos maiores desafios práticos na tutela dos danos digitais é a dificuldade probatória. A vítima de um dano causado por algoritmo frequentemente desconhece a cadeia causal que produziu o resultado lesivo, não tem acesso ao código-fonte do sistema e carece de expertise técnica para compreender o funcionamento do modelo. Verificou-se que, nesse contexto, os mecanismos tradicionais de prova são manifestamente insuficientes.
O Código de Defesa do Consumidor, em seu art. 6º, VIII, prevê a inversão do ônus da prova em favor do consumidor quando for verossímil a alegação ou quando for ele hipossuficiente. Parece-nos que essa disposição, aplicada ao contexto dos danos algorítmicos nas relações de consumo, oferece um instrumento valioso para superar o desequilíbrio informacional entre a vítima e o fornecedor do sistema de IA.
O PL 2338/23, em seu art. 27, § 2º, também prevê a inversão do ônus da prova em favor da vítima quando o sistema de IA não for classificado como de alto risco, presumindo a culpa do agente causador. Essa previsão, embora limitada em seu escopo, aponta na direção correta: a assimetria de informação entre a vítima e o operador do sistema justifica a redistribuição do encargo probatório como medida de equilíbrio processual.
Considerações Finais
As perspectivas e os desafios do dano na era digital revelam a insuficiência das respostas jurídicas tradicionais diante de um fenômeno de complexidade e escala crescentes. A tutela efetiva das vítimas de danos algorítmicos, digitais e tecnológicos exige a combinação de instrumentos normativos — como a LGPD, o CDC e o PL 2338/23 —, de mecanismos processuais adaptados — como a inversão do ônus da prova — e de uma postura interpretativa atenta às assimetrias estruturais que caracterizam as relações entre indivíduos e sistemas tecnológicos. Parece-nos que o direito brasileiro, embora ainda em processo de adaptação, dispõe de bases normativas e principiológicas suficientes para avançar nessa direção.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".