Voltar ao Blog
ECA DigitalProteção Digital

O Futuro da Proteção de Menores Online no Brasil: Tendências Pós-ECA Digital

Perspectivas regulatórias para proteção de menores online no Brasil pós-ECA Digital: sandbox regulatório, autorregulação supervisionada e tendências 2027-2030.

Alessandro Lavorante 25 de março de 2026 6 min de leitura

O ECA Digital representa marco significativo na proteção de crianças e adolescentes no ambiente online brasileiro. Contudo, o dinamismo da tecnologia impõe a reflexão sobre o que vem depois: como o marco regulatório deverá evoluir para acompanhar inovações que ainda não existem? Parece-nos oportuno prospectar as tendências regulatórias para o período 2027-2030, identificando os modelos de governança mais promissores e os desafios que se avizinham.

O Estado Atual: Conquistas e Lacunas

Cabe reconhecer os avanços. O Brasil conta hoje com um ecossistema normativo que inclui o ECA (Lei 8.069/1990), a LGPD (Lei 13.709/2018), o Marco Civil da Internet (Lei 12.965/2014), a Lei do Bullying (Lei 13.185/2015), a Lei 14.811/2024 (criminalização do bullying e cyberbullying) e o ECA Digital. A Autoridade Nacional de Proteção de Dados (ANPD) consolidou-se como regulador relevante, e o Ministério Público intensificou sua atuação na esfera digital.

Contudo, verifica-se que lacunas significativas persistem. A regulação de inteligência artificial — com impacto direto sobre menores — permanece em tramitação legislativa (PL 2338/2023). Os mecanismos de verificação de idade continuam tecnologicamente imaturos. A cooperação internacional para enforcement é insuficiente. E a velocidade de evolução tecnológica supera, consistentemente, a capacidade de resposta legislativa.

Sandbox Regulatório: Experimentação Controlada

Uma das tendências mais promissoras é a adoção de sandboxes regulatórios — ambientes controlados nos quais empresas podem testar inovações tecnológicas sob supervisão do regulador, com flexibilização temporária de certas exigências normativas. O conceito, originário do setor financeiro (a Financial Conduct Authority do Reino Unido lançou o primeiro sandbox regulatório em 2016), tem sido progressivamente adotado em outras áreas.

No contexto da proteção de menores, um sandbox regulatório permitiria que empresas testassem novas tecnologias de verificação de idade, mecanismos de controle parental ou modelos de moderação de conteúdo em ambiente supervisionado pela ANPD ou outro regulador competente, antes de sua implementação em larga escala.

A ANPD já sinalizou abertura a modelos de sandbox: a Resolução CD/ANPD nº 2/2022, que aprovou o Regulamento de Aplicação da LGPD para Agentes de Tratamento de Pequeno Porte, demonstra disposição para abordagens regulatórias flexíveis.

No plano internacional, a Digital Regulatory Cooperation Forum (DRCF) do Reino Unido — que reúne Ofcom, ICO, CMA e FCA — tem explorado o uso de sandboxes para testar soluções de segurança online para menores, oferecendo modelo que o Brasil pode adaptar.

Autorregulação Supervisionada

A autorregulação supervisionada — ou corregulação — representa modelo intermediário entre a regulação estatal direta e a autorregulação pura. Nesse modelo, a indústria desenvolve códigos de conduta e padrões técnicos, que são aprovados e fiscalizados por autoridade reguladora.

O AADC britânico operou parcialmente nessa lógica: embora seja código estatutário emitido pelo ICO, muitas de suas disposições foram informadas por consultas à indústria e refletem práticas que empresas já adotavam voluntariamente.

No Brasil, o modelo de autorregulação supervisionada poderia operar por meio de códigos de conduta setoriais — um para plataformas de redes sociais, outro para jogos online, outro para serviços de educação digital — aprovados e fiscalizados pela ANPD, com participação de entidades de defesa de crianças e adolescentes.

Parece-nos que esse modelo é particularmente adequado ao contexto brasileiro, onde a capacidade regulatória estatal é limitada e o setor tecnológico possui expertise técnica que o regulador nem sempre detém. A chave está na supervisão efetiva: autorregulação sem fiscalização é, como a experiência demonstra, carta de intenções sem eficácia prática.

Tecnologias Emergentes e Novos Desafios

Inteligência Artificial Generativa

A proliferação de IA generativa — sistemas como ChatGPT, Claude, Gemini e seus derivados — apresenta desafios inéditos para a proteção de menores. Esses sistemas podem gerar conteúdo personalizado em escala ilimitada, incluindo conteúdo potencialmente nocivo a menores: desinformação, material de exploração sexual gerado sinteticamente (deepfakes), conversas que simulam relações humanas e conteúdo que promove comportamentos de risco.

O PL 2338/2023, que propõe o marco regulatório de IA no Brasil, deverá disciplinar essas questões. A experiência do AI Act europeu (Regulamento 2024/1689), que impõe obrigações de transparência a sistemas de IA generativa (art. 52) e classifica como de alto risco sistemas que afetam educação e direitos fundamentais de menores, oferece referência relevante.

Metaverso e Realidade Virtual

Ambientes imersivos de realidade virtual apresentam riscos específicos para menores: assédio virtual com dimensão física (a sensação de violação corporal em ambiente imersivo), exposição a conteúdo hiper-realista, coleta de dados biométricos (movimento ocular, expressões faciais, respostas fisiológicas) e interação com adultos desconhecidos em espaços tridimensionais.

A regulação desses ambientes encontra-se em estágio embrionário globalmente. O Online Safety Act 2023 britânico aplica-se a serviços que incluem interação entre usuários, o que abrange muitos ambientes de metaverso. No Brasil, o ECA Digital deverá ser interpretado extensivamente para alcançar essas novas modalidades.

Internet das Coisas (IoT) e Dispositivos Conectados

Brinquedos conectados à internet, assistentes virtuais domésticos e wearables infantis coletam dados de menores em contextos íntimos — dentro de casa, durante o sono, em momentos de brincadeira. A Comissão Europeia emitiu alertas sobre riscos de privacidade de brinquedos conectados, e a Bundesnetzagentur alemã proibiu a boneca Cayla em 2017 por constituir "dispositivo de espionagem disfarçado".

Cooperação Internacional

A proteção efetiva de menores online exige cooperação internacional robusta. As plataformas digitais operam globalmente; a regulação, ainda é predominantemente nacional. Verifica-se que iniciativas como o WePROTECT Global Alliance — coalizão internacional contra exploração sexual de crianças — e a Declaração de Tóquio sobre Segurança Infantil Online (G7, 2023) representam avanços, mas a efetividade da cooperação permanece aquém do necessário.

Para o Brasil, o fortalecimento da cooperação com a rede ibero-americana de autoridades de proteção de dados e com o Comitê dos Direitos da Criança da ONU é particularmente relevante.

Perspectivas 2027-2030

Parece-nos que as seguintes tendências moldarão a proteção de menores online no Brasil nos próximos anos:

Consolidação da ANPD como regulador central, com crescente especialização em temas de proteção de dados de menores.

Aprovação e implementação do marco regulatório de IA, com disposições específicas sobre impactos algorítmicos em crianças e adolescentes.

Adoção progressiva de mecanismos de verificação de idade mais robustos, possivelmente incluindo soluções de identidade digital descentralizada.

Evolução do modelo de responsabilidade de plataformas, com movimento em direção a obrigações proativas de segurança e afastamento do regime de "notificação judicial" do Marco Civil para conteúdo envolvendo menores.

Maior participação de crianças e adolescentes na formulação de políticas que os afetam, em consonância com o direito de participação (art. 12 da Convenção sobre os Direitos da Criança).

Considerações Finais

O ECA Digital não é ponto de chegada — é ponto de partida. Cabe ressaltar que a proteção de menores no ambiente digital é projeto permanente que exige atualização constante, humildade diante da complexidade tecnológica e compromisso inabalável com o princípio do melhor interesse. A pergunta que deve orientar os próximos anos não é "o que a tecnologia nos permite?" — é "o que as crianças precisam?". A resposta a essa pergunta deve guiar toda evolução regulatória vindoura.

ECA DigitalFuturo RegulatórioSandboxAutorregulaçãoTendências

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco