Os algoritmos de recomendação são o coração operacional das redes sociais contemporâneas. São eles que determinam quais conteúdos aparecem no feed de cada usuário, em que ordem e com que frequência. Quando esses algoritmos operam sobre usuários menores de idade — cujo cérebro em desenvolvimento é particularmente suscetível a estímulos emocionais e mecanismos de recompensa variável —, os riscos se multiplicam exponencialmente.
O ECA Digital (Lei 14.836/2024) enfrenta esse problema ao impor obrigações específicas sobre o funcionamento de algoritmos de recomendação quando aplicados a crianças e adolescentes. Parece-nos que essa é uma das inovações mais relevantes e desafiadoras da lei, por tocar no modelo de negócio central das maiores plataformas digitais do mundo.
O Funcionamento dos Algoritmos de Recomendação
Antes de analisar as obrigações legais, cabe definir o que são e como funcionam os algoritmos de recomendação. Em termos simplificados, esses algoritmos utilizam dados sobre o comportamento do usuário — o que clicou, quanto tempo permaneceu em determinado conteúdo, o que compartilhou, o que pesquisou — para prever quais conteúdos maximizarão o engajamento (tempo de permanência, interações, compartilhamentos).
O objetivo primário desses algoritmos não é informar, educar ou entreter o usuário — é maximizar o tempo de permanência na plataforma, que se traduz diretamente em receita publicitária. Verifica-se que essa função objetivo (engagement maximization) é intrinsecamente problemática quando aplicada a menores, porque conteúdos que geram maior engajamento tendem a ser aqueles que provocam reações emocionais intensas — incluindo ansiedade, indignação, comparação social e medo de ficar de fora (FOMO, Fear of Missing Out).
O Caso Frances Haugen e os Facebook Papers
Em outubro de 2021, Frances Haugen, ex-engenheira de dados da Meta Platforms, tornou públicos milhares de documentos internos da empresa — os chamados Facebook Papers. Entre as revelações mais impactantes estavam pesquisas internas da própria Meta demonstrando que o Instagram agravava problemas de imagem corporal em 32% das adolescentes que já se sentiam insatisfeitas com seu corpo.
Os documentos revelaram que a Meta tinha conhecimento de que seus algoritmos de recomendação direcionavam adolescentes a conteúdos sobre dietas extremas, automutilação e transtornos alimentares — e que, apesar desse conhecimento, priorizou métricas de engajamento sobre a segurança dos usuários menores.
O depoimento de Haugen perante o Senado dos Estados Unidos (outubro de 2021) e perante o Parlamento Europeu (novembro de 2021) catalisou movimentos regulatórios em múltiplas jurisdições. Parece-nos que o ECA Digital brasileiro é, em parte, resposta a esse momento de conscientização global.
Obrigações do ECA Digital sobre Algoritmos
A Lei 14.836/2024 impõe às plataformas que utilizam algoritmos de recomendação obrigações específicas quando o usuário é menor de idade.
Desativação de recomendação baseada em profiling. Para menores, a recomendação de conteúdo não pode ser baseada em perfil comportamental individualizado. Isso não significa proibição total de curadoria algorítmica — plataformas podem oferecer recomendações baseadas em popularidade geral, categoria de conteúdo ou preferências explicitamente declaradas pelo usuário —, mas veda a utilização de dados de comportamento (tempo de visualização, padrões de scroll, cliques) para construir perfis individualizados de menores.
Transparência algorítmica. Plataformas devem informar, em linguagem acessível à faixa etária do usuário e a seus responsáveis, que conteúdos são selecionados por algoritmos e quais critérios gerais orientam essa seleção. O art. 20 da LGPD, que garante o direito à revisão de decisões automatizadas, reforça essa obrigação.
Mitigação de riscos. Plataformas de grande porte devem realizar avaliações periódicas dos riscos que seus algoritmos de recomendação apresentam para menores e implementar medidas de mitigação proporcionais. Essa obrigação está alinhada com o art. 34 do DSA europeu, que exige avaliações de risco sistêmico por parte de Very Large Online Platforms.
Opção de feed cronológico. Menores devem ter a opção de visualizar conteúdo em ordem cronológica, sem curadoria algorítmica. Essa medida, já implementada voluntariamente pelo Instagram em 2022 (após pressão regulatória), permite ao menor e a seus responsáveis optarem por experiência não mediada por algoritmos de engajamento.
Bolhas Informacionais e Radicalização
Os algoritmos de recomendação tendem a criar bolhas informacionais — ambientes onde o usuário é exposto predominantemente a conteúdos que reforçam suas crenças e interesses preexistentes. Para adolescentes em fase de formação de identidade, esse efeito pode ser particularmente nocivo.
Pesquisas conduzidas pelo Institute for Strategic Dialogue (ISD, 2021) documentaram como algoritmos de recomendação do YouTube direcionavam adolescentes que assistiam a vídeos sobre fitness para conteúdos progressivamente mais extremos sobre dietas restritivas e transtornos alimentares — em um processo de radicalização gradual facilitado pelo algoritmo.
Verifica-se que o ECA Digital, ao exigir mitigação de riscos algorítmicos, impõe às plataformas o dever de identificar e interromper esses padrões de escalada. Isso exige monitoramento ativo dos caminhos de recomendação e intervenção quando o algoritmo direciona menores a conteúdos potencialmente nocivos.
Conteúdo Nocivo: Definição e Limites
A regulação de conteúdo nocivo para menores suscita questão delicada: quem define o que é nocivo? O ECA Digital não cria lista exaustiva de conteúdos proibidos, mas estabelece categorias de risco: conteúdo que promova autolesão, suicídio ou transtornos alimentares; conteúdo sexualmente explícito; conteúdo que incite violência ou discriminação; e conteúdo que promova consumo de drogas ou álcool.
Cabe ressaltar que a moderação de conteúdo para menores deve equilibrar proteção e liberdade de expressão. Conteúdo educativo sobre saúde mental, por exemplo, pode abordar temas como suicídio e autolesão de forma legítima e necessária. A distinção entre conteúdo nocivo e conteúdo informativo relevante exige sensibilidade e contexto — qualidades que algoritmos automatizados frequentemente não possuem.
Desafios de Enforcement
A fiscalização do cumprimento das obrigações sobre algoritmos enfrenta desafio fundamental: a opacidade algorítmica. Os algoritmos de recomendação das grandes plataformas são sistemas proprietários de extrema complexidade, cujo funcionamento interno é tratado como segredo comercial. Parece-nos que a efetividade do ECA Digital nesse aspecto dependerá da capacidade dos órgãos fiscalizadores de exigir auditorias algorítmicas independentes — instrumento previsto no DSA europeu e que deveria ser regulamentado no contexto brasileiro.
Considerações Finais
A regulação de algoritmos de recomendação pelo ECA Digital representa intervenção direta no modelo de negócio das redes sociais. Verifica-se que essa intervenção é justificada pelo volume crescente de evidências sobre os danos que algoritmos de engajamento causam à saúde mental de menores. As plataformas terão de reconfigurar seus sistemas para priorizar o melhor interesse da criança sobre a maximização de engajamento — mudança profunda que demandará investimento técnico significativo e, sobretudo, mudança de cultura corporativa.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".