Os algoritmos de inteligência artificial permeiam, de forma muitas vezes invisível, a experiência digital de crianças e adolescentes. Sistemas de recomendação determinam o conteúdo que assistem, algoritmos de classificação influenciam o que leem, e modelos preditivos podem afetar decisões sobre sua educação e saúde. Parece-nos imperativo examinar como o ECA Digital, em articulação com o marco regulatório de IA em construção, disciplina essas interferências algorítmicas na vida de menores.
Algoritmos de Recomendação: O Que São e Como Operam
Cabe definir, preliminarmente, o objeto de análise. Algoritmos de recomendação são sistemas automatizados que selecionam e ordenam conteúdos para cada usuário com base em seu histórico de interações, preferências inferidas e padrões comportamentais. Plataformas como YouTube, TikTok e Instagram empregam esses sistemas como elemento central de seu funcionamento.
O mecanismo opera por meio de técnicas de machine learning — particularmente filtragem colaborativa e redes neurais profundas — que otimizam uma métrica de engajamento: tempo de permanência, número de interações, frequência de retorno. Verifica-se que essa otimização é cega ao bem-estar do usuário — o algoritmo maximiza engajamento independentemente de o conteúdo ser benéfico ou nocivo.
Quando o usuário é uma criança ou adolescente, as consequências podem ser particularmente graves. Investigação da jornalista Frances Haugen, ex-funcionária da Meta, revelou em 2021 que o algoritmo do Instagram direcionava adolescentes vulneráveis a conteúdos sobre distúrbios alimentares e autolesão, criando espirais de engajamento nocivo que a própria empresa reconhecia internamente.
Viés Algorítmico e Menores
O viés algorítmico — a tendência de sistemas de IA a produzir resultados sistematicamente discriminatórios — afeta menores de formas específicas. Algoritmos treinados predominantemente com dados de adultos podem funcionar de forma inadequada para crianças. Sistemas de reconhecimento facial apresentam taxas de erro significativamente maiores para menores, conforme demonstrado em estudo do National Institute of Standards and Technology (NIST) dos Estados Unidos publicado em 2019.
No âmbito educacional, algoritmos utilizados para avaliação adaptativa ou predição de desempenho escolar podem perpetuar desigualdades socioeconômicas e raciais, classificando crianças de comunidades desfavorecidas como de "menor potencial" com base em correlações estatísticas que refletem estruturas de desigualdade, não aptidões individuais.
Questiona-se: é aceitável que sistemas algorítmicos tomem decisões que afetam o desenvolvimento e as oportunidades de crianças e adolescentes sem supervisão humana adequada e sem possibilidade de contestação?
O Marco Regulatório: ECA Digital, AI Act e PL 2338/23
O ECA Digital, ao estabelecer o princípio do melhor interesse como norte para o tratamento digital de menores, impõe que algoritmos que afetem crianças e adolescentes sejam desenhados e operados em conformidade com esse princípio.
No plano europeu, o AI Act (Regulamento 2024/1689 da União Europeia), que entrou em vigor em agosto de 2024, classifica sistemas de IA que afetam a educação e a formação profissional como de "alto risco" (Anexo III, ponto 3), sujeitando-os a obrigações rigorosas de transparência, supervisão humana e avaliação de conformidade.
No Brasil, o PL 2338/2023, que propõe o marco regulatório da inteligência artificial, segue direção semelhante. O projeto, inspirado no AI Act, prevê classificação de sistemas de IA por nível de risco e estabelece obrigações específicas para sistemas de alto risco, incluindo aqueles que afetam direitos de crianças e adolescentes.
A LGPD, por sua vez, assegura no art. 20 o direito à revisão de decisões automatizadas, incluindo o direito a "informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada". Quando o titular é menor, parece-nos que esse direito deve ser exercido por seus representantes legais e que a explicação deve ser acessível à compreensão do menor.
Explicabilidade Algorítmica para Menores
A exigência de explicabilidade — ou explainability — dos algoritmos que afetam menores apresenta desafios específicos. Não basta que a explicação seja tecnicamente precisa; ela deve ser compreensível para o público afetado. No caso de crianças e adolescentes, isso significa comunicação em linguagem acessível, com recursos visuais quando apropriado.
O art. 20, § 1º, da LGPD determina que o controlador forneça informações claras e adequadas sobre a lógica das decisões automatizadas. Cabe ressaltar que "claras e adequadas" deve ser interpretado em relação ao destinatário — e, no caso de menores, o padrão de clareza é necessariamente mais exigente.
O AADC britânico, em seu Standard 15, exige que serviços online forneçam informações de privacidade em linguagem adequada à idade do menor, incluindo explicações sobre como os algoritmos selecionam conteúdo.
A Posição Intermediária: Nem Proibição, Nem Laissez-Faire
Há quem defenda a proibição absoluta de algoritmos de recomendação para menores — proposta que, embora bem-intencionada, parece-nos excessiva e de difícil implementação. No extremo oposto, a ausência de regulação submete menores a sistemas otimizados exclusivamente para engajamento, sem consideração por seu bem-estar.
Parece-nos que a posição adequada é intermediária: permitir o uso de algoritmos de recomendação para menores, mas condicioná-lo a salvaguardas específicas. O Digital Services Act (DSA) da União Europeia (Regulamento 2022/2065) oferece modelo interessante ao proibir, em seu art. 28, a publicidade baseada em profiling para menores, sem proibir integralmente a personalização de conteúdo.
Obrigações Concretas
À luz do ECA Digital e do marco regulatório em construção, as plataformas devem:
Implementar mecanismos de revisão humana para algoritmos que afetem significativamente menores, garantindo que decisões automatizadas de alto impacto sejam supervisionadas.
Realizar auditorias algorítmicas periódicas para identificar vieses e impactos negativos sobre menores, conforme recomendado pelo Comentário Geral nº 25 do Comitê dos Direitos da Criança da ONU.
Oferecer opção de desativação de recomendações algorítmicas (chronological feed) para contas de menores.
Garantir que algoritmos de recomendação para menores não priorizem conteúdo potencialmente nocivo à saúde mental, como material que promove distúrbios alimentares, autolesão ou ideação suicida.
Considerações Finais
Verifica-se que a regulação de algoritmos que afetam menores encontra-se em estágio de rápida evolução, tanto no Brasil quanto internacionalmente. O desafio é construir um marco que proteja efetivamente crianças e adolescentes sem sufocar a inovação tecnológica que pode beneficiá-los. Parece-nos que a chave está na combinação de transparência, supervisão humana e accountability — princípios que o ECA Digital, interpretado em conjunto com a LGPD e o futuro marco de IA, tem plena capacidade de concretizar.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".