A Avaliação de Impacto sobre Direitos de Crianças e Adolescentes (AIDCA) constitui instrumento essencial para que plataformas digitais identifiquem, mitiguem e monitorem riscos que seus serviços podem representar para o público infanto-juvenil. Parece-nos oportuno oferecer, neste artigo, um roteiro prático para sua elaboração, situando-a no contexto normativo brasileiro e nas melhores práticas internacionais.
Conceito e Natureza Jurídica
Cabe, inicialmente, definir o instrumento. A AIDCA é um processo sistemático de avaliação dos impactos que um produto, serviço ou tecnologia digital pode ter sobre os direitos de crianças e adolescentes. Não se trata de mero documento formal, mas de exercício analítico contínuo que deve preceder o lançamento de novos serviços e acompanhar sua operação.
O conceito tem raízes em instrumentos análogos já consolidados: o Relatório de Impacto à Proteção de Dados Pessoais (RIPD), previsto no art. 38 da LGPD (Lei 13.709/2018), e o Data Protection Impact Assessment (DPIA), disciplinado pelo art. 35 do GDPR europeu (Regulamento 2016/679). A AIDCA, contudo, tem escopo mais amplo: enquanto o RIPD e o DPIA focam exclusivamente na proteção de dados, a AIDCA avalia o impacto sobre o conjunto dos direitos da criança — incluindo saúde mental, desenvolvimento, educação e segurança.
Fundamento Normativo
O ECA Digital fundamenta a exigência de avaliação de impacto no princípio do melhor interesse da criança (art. 3º da Convenção sobre os Direitos da Criança, ONU, 1989) e na doutrina da proteção integral (art. 227, CF/88; art. 1º do ECA).
A LGPD, por sua vez, oferece base específica para a dimensão de proteção de dados: o art. 38 autoriza a ANPD a requisitar relatório de impacto quando o tratamento puder gerar riscos às liberdades civis e aos direitos fundamentais. Quando o tratamento envolve dados de menores (art. 14), verifica-se que o RIPD é não apenas recomendável, mas praticamente obrigatório.
No plano internacional, o Comentário Geral nº 25 do Comitê dos Direitos da Criança da ONU (2021), que trata dos direitos da criança em relação ao ambiente digital, recomenda expressamente a realização de avaliações de impacto sobre os direitos da criança para novas tecnologias e serviços digitais (parágrafo 38).
Quem Deve Elaborar a AIDCA
A responsabilidade pela elaboração da AIDCA recai sobre o controlador dos dados — tipicamente, a plataforma digital que oferece serviços a menores. Contudo, parece-nos que a avaliação deve envolver equipe multidisciplinar:
Encarregado de Proteção de Dados (DPO): coordena a avaliação e assegura conformidade com a LGPD.
Equipe jurídica: verifica o cumprimento das obrigações legais e identifica riscos regulatórios.
Equipe de produto e engenharia: avalia as funcionalidades técnicas e seus impactos potenciais.
Especialistas em desenvolvimento infantil: psicólogos ou pedagogos que avaliam os impactos sobre o bem-estar e o desenvolvimento do menor.
Representantes de crianças e adolescentes: quando possível, a participação de jovens no processo de avaliação assegura que suas perspectivas sejam consideradas — em consonância com o direito de participação (art. 12 da Convenção sobre os Direitos da Criança).
Metodologia: Passo a Passo
Etapa 1: Mapeamento do Serviço
Descrever detalhadamente o serviço digital, identificando: público-alvo (faixas etárias atendidas), funcionalidades oferecidas, dados coletados e tratados, algoritmos utilizados e terceiros com quem os dados são compartilhados.
Etapa 2: Identificação de Riscos
Mapear os riscos potenciais que o serviço pode representar para crianças e adolescentes, organizados em categorias:
Riscos de conteúdo: exposição a material inadequado, violento ou sexualizado.
Riscos de contato: interação com adultos mal-intencionados, cyberbullying, aliciamento.
Riscos de conduta: comportamentos incentivados pelo design do serviço, como uso excessivo, gastos impulsivos ou compartilhamento excessivo de informações pessoais.
Riscos de dados: coleta excessiva, compartilhamento indevido, vulnerabilidades de segurança.
Riscos algorítmicos: viés discriminatório, exposição a conteúdos radicalizantes, bolhas informacionais.
Etapa 3: Avaliação da Probabilidade e Gravidade
Para cada risco identificado, avaliar a probabilidade de ocorrência (baixa, média, alta) e a gravidade do impacto potencial sobre os direitos do menor (leve, moderada, grave). A combinação desses fatores determina o nível de risco.
Etapa 4: Medidas de Mitigação
Para cada risco classificado como médio ou alto, identificar medidas concretas de mitigação. Exemplos incluem: implementação de moderação de conteúdo, verificação de idade, controles parentais, limitação de coleta de dados, configurações de privacidade restritivas por padrão e revisão de algoritmos de recomendação.
Etapa 5: Risco Residual
Após a aplicação das medidas de mitigação, avaliar o risco residual. Se o risco residual permanecer alto para qualquer categoria, a plataforma deve reconsiderar o lançamento ou a continuidade do serviço para menores, ou consultar a ANPD (conforme art. 36 da LGPD).
Etapa 6: Monitoramento Contínuo
A AIDCA não é exercício pontual. Verifica-se que os riscos evoluem com a tecnologia, com mudanças no comportamento dos usuários e com atualizações do serviço. A avaliação deve ser revisitada periodicamente — recomenda-se, no mínimo, anualmente — e sempre que houver mudança significativa no serviço.
Referências Internacionais
O modelo mais desenvolvido de avaliação de impacto sobre direitos de crianças é o Children's Rights Impact Assessment (CRIA) promovido pela UNICEF em parceria com o London School of Economics. O guia "Children's Rights by Design" (2020) da UNICEF oferece metodologia detalhada para a realização dessas avaliações.
O ICO britânico, no contexto do AADC, exige que serviços realizem Data Protection Impact Assessment (DPIA) para qualquer tratamento de dados de menores que possa resultar em alto risco, conforme o art. 35 do UK GDPR.
Considerações Finais
Parece-nos que a AIDCA representa o instrumento mais promissor para operacionalizar o princípio do melhor interesse da criança no ambiente digital. Ao exigir que as plataformas avaliem proativamente os impactos de seus serviços, desloca-se o foco da reparação posterior para a prevenção — que é, como sabemos, o mecanismo mais eficaz de proteção. Cabe às empresas incorporar essa prática em sua governança; cabe à ANPD e ao Ministério Público exigir sua realização e fiscalizar sua qualidade.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".