Voltar ao Blog
ECA DigitalProteção Digital

Transparência Algorítmica e Menores: Obrigações do ECA Digital

Obrigações de transparência algorítmica para menores no ECA Digital: linguagem acessível, explicação de decisões automatizadas e direito de opt-out.

Alessandro Lavorante 19 de março de 2026 6 min de leitura

A opacidade dos sistemas algorítmicos que afetam crianças e adolescentes constitui um dos desafios mais prementes da regulação digital contemporânea. Plataformas utilizam algoritmos complexos para curar conteúdo, recomendar interações e tomar decisões que impactam a experiência digital de menores — frequentemente sem que estes ou seus responsáveis compreendam os mecanismos envolvidos. Parece-nos essencial examinar as obrigações de transparência que o ECA Digital, em articulação com a LGPD, impõe a essas plataformas.

O Problema da Opacidade

Verifica-se que a maioria dos algoritmos de recomendação opera como "caixas-pretas" (black boxes): suas entradas e saídas são observáveis, mas o processo decisório interno permanece inescrutável. Para crianças e adolescentes, essa opacidade é particularmente problemática por duas razões.

Primeiro, menores não dispõem, em regra, de literacia digital suficiente para compreender que suas experiências online são mediadas por algoritmos. Uma criança que assiste a vídeos no YouTube pode não perceber que o próximo vídeo recomendado é resultado de cálculo algorítmico, e não de curadoria humana ou coincidência.

Segundo, a opacidade impede que pais e responsáveis exerçam sua função de supervisão. Se os responsáveis não compreendem como e por que determinado conteúdo é direcionado ao menor, não podem avaliar se esse direcionamento é adequado.

Fundamento Normativo

O direito à transparência algorítmica encontra fundamento em múltiplas camadas normativas.

A LGPD (Lei 13.709/2018) consagra, em seu art. 6º, VI, o princípio da transparência, que garante aos titulares "informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento". O art. 20 vai além, assegurando o direito de "solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses", incluindo decisões destinadas a definir perfil pessoal, profissional, de consumo e de crédito.

O § 1º do art. 20 obriga o controlador a fornecer, sempre que solicitado, "informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada". Cabe ressaltar que, quando o titular é menor, esse direito deve ser exercido por seus representantes legais — mas a informação fornecida deve ser acessível também ao próprio menor, em conformidade com sua capacidade de compreensão.

O Marco Civil da Internet (Lei 12.965/2014), em seu art. 7º, assegura ao usuário o direito a "informações claras e completas sobre coleta, uso, armazenamento, tratamento e proteção de seus dados pessoais".

Linguagem Acessível: Uma Obrigação, Não Uma Opção

O art. 14, § 6º, da LGPD determina que as informações sobre o tratamento de dados de menores sejam fornecidas "de maneira simples, clara e acessível, consideradas as características físico-motoras, perceptivas, sensoriais, intelectuais e mentais do usuário, com uso de recursos audiovisuais quando adequado".

Essa exigência implica que os termos de uso e as explicações sobre funcionamento algorítmico não podem ser apresentados na linguagem jurídico-técnica habitual das políticas de privacidade. Para crianças menores de 12 anos, podem ser necessários recursos visuais — ícones, animações, linguagem ilustrada. Para adolescentes, a linguagem deve ser direta, sem jargão técnico desnecessário.

O AADC britânico, em seu Standard 15 ("Online Tools"), exige que serviços online forneçam ferramentas proeminentes e acessíveis que ajudem crianças a exercer seus direitos de proteção de dados, incluindo explicações sobre como o conteúdo é selecionado e apresentado.

O Direito de Opt-Out

Questão central é o direito de menores — ou de seus responsáveis — de recusar o tratamento algorítmico personalizado. Pode um adolescente optar por receber conteúdo em ordem cronológica, sem curadoria algorítmica?

A resposta parece-nos afirmativa. O art. 18 da LGPD assegura ao titular o direito de obter, a qualquer momento, a eliminação de dados pessoais tratados com base no consentimento (inciso VI) e a informação sobre a possibilidade de não fornecer consentimento e sobre as consequências da negativa (inciso VIII).

O Digital Services Act (DSA) europeu, em seu art. 38, proíbe que plataformas apresentem publicidade baseada em profiling a menores e, no art. 27, exige que ofereçam pelo menos uma opção de sistema de recomendação não baseada em profiling.

Parece-nos que o ECA Digital, interpretado à luz desses dispositivos e referências internacionais, fundamenta o direito de menores a uma experiência digital não mediada por algoritmos de personalização — ou, ao menos, o direito de escolha informada entre experiência personalizada e não personalizada.

Contrapontos e Posição

Argumenta-se que a transparência algorítmica total é tecnicamente inviável — algoritmos de deep learning são, por natureza, difíceis de explicar — e que exigências excessivas de transparência podem comprometer segredos industriais legítimos.

Esses argumentos merecem consideração. Contudo, parece-nos que a questão não é revelar o código-fonte do algoritmo, mas explicar, em termos compreensíveis, os fatores que influenciam as recomendações. A distinção é entre transparência técnica (como o algoritmo funciona internamente) e transparência funcional (o que o algoritmo faz e por que). O ECA Digital exige a segunda, não necessariamente a primeira.

A experiência da Apple, que implementou "App Tracking Transparency" (ATT) em 2021, permitindo a usuários recusar o rastreamento entre aplicativos, demonstra que transparência e controle são implementáveis tecnicamente — com impacto, sim, sobre o modelo de negócios, mas sem inviabilizá-lo.

Obrigações Práticas para Plataformas

Para conformidade com as exigências de transparência algorítmica do ECA Digital, as plataformas devem:

Informar, em linguagem acessível à faixa etária do menor, que o conteúdo exibido é selecionado por algoritmo e quais fatores influenciam essa seleção.

Permitir que menores e seus responsáveis acessem configurações de personalização e as modifiquem, incluindo a opção de desativar a personalização algorítmica.

Fornecer, quando solicitado, explicação sobre por que determinado conteúdo foi recomendado ao menor, conforme art. 20, § 1º, da LGPD.

Disponibilizar relatórios periódicos de transparência que incluam informações sobre como seus algoritmos afetam usuários menores de idade.

Considerações Finais

A transparência algorítmica para menores não é luxo regulatório — é condição de exercício de direitos fundamentais. Verifica-se que, sem compreensão dos mecanismos que moldam sua experiência digital, crianças e adolescentes são reduzidos a objetos de otimização algorítmica, não sujeitos de direitos. Cabe ao ECA Digital e à LGPD, em sua aplicação conjunta, restaurar essa condição de sujeito — o que passa, necessariamente, pela transparência.

ECA DigitalTransparência AlgorítmicaDecisões AutomatizadasArt. 20 LGPDOpt-out

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco