Voltar ao Blog
ECA DigitalProteção Digital

ECA Digital e Proteção contra Cyberbullying e Conteúdo Nocivo

Responsabilidade das plataformas na proteção de menores contra cyberbullying e conteúdo nocivo: moderação, remoção ágil e Lei 13.185/2015.

Alessandro Lavorante 23 de março de 2026 6 min de leitura

O cyberbullying e a exposição a conteúdo nocivo constituem duas das mais graves ameaças ao bem-estar de crianças e adolescentes no ambiente digital. A pesquisa TIC Kids Online Brasil 2024, do Comitê Gestor da Internet no Brasil (CGI.br), indica que parcela expressiva dos jovens brasileiros entre 9 e 17 anos já foi vítima de alguma forma de agressão online. Parece-nos imperativo examinar como o ECA Digital, em conjunto com a legislação vigente, disciplina a responsabilidade das plataformas na prevenção e no combate a essas práticas.

Conceitos: Cyberbullying e Conteúdo Nocivo

Cabe delimitar os conceitos. A Lei 13.185/2015 (Programa de Combate à Intimidação Sistemática — Bullying) define, em seu art. 1º, § 1º, a intimidação sistemática como "todo ato de violência física ou psicológica, intencional e repetitivo que ocorre sem motivação evidente, praticado por indivíduo ou grupo". O parágrafo único do art. 2º reconhece que a intimidação pode ocorrer na "rede mundial de computadores (cyberbullying)".

A Lei 14.811/2024 introduziu o crime de bullying (intimidação sistemática) no Código Penal brasileiro, acrescentando o art. 146-A, que prevê pena de multa para bullying e reclusão de 2 a 4 anos para cyberbullying — reconhecendo a maior gravidade da modalidade digital pela capacidade de amplificação e permanência do dano.

Conteúdo nocivo é categoria mais ampla que abrange material que, embora não necessariamente ilegal, pode causar dano ao desenvolvimento de crianças e adolescentes: conteúdo que promove autolesão, distúrbios alimentares, uso de drogas, ideação suicida, violência extrema ou comportamento de risco.

O Marco Normativo

O arcabouço jurídico aplicável é composto por múltiplas normas:

ECA (Lei 8.069/1990): o art. 17 garante a inviolabilidade da integridade física, psíquica e moral da criança e do adolescente. O art. 18 impõe o dever de velar pela dignidade do menor, "pondo-o a salvo de qualquer tratamento desumano, violento, aterrorizante, vexatório ou constrangedor". O art. 232 tipifica o crime de submeter criança ou adolescente a vexame ou constrangimento.

Lei 13.185/2015 (Lei do Bullying): institui o Programa de Combate à Intimidação Sistemática e classifica as diferentes formas de bullying, incluindo a virtual.

Lei 14.811/2024: criminaliza o bullying e o cyberbullying, com penas agravadas na modalidade digital, e inclui o crime de induzir ou instigar automutilação.

Marco Civil da Internet (Lei 12.965/2014): o art. 19 estabelece o regime de responsabilidade de provedores de aplicação, que somente respondem por conteúdo de terceiros após descumprimento de ordem judicial de remoção. O art. 21 prevê exceção para conteúdo de nudez ou atos sexuais, cuja remoção pode ser solicitada diretamente pelo ofendido.

LGPD (Lei 13.709/2018): o art. 14 impõe o tratamento de dados de menores em seu melhor interesse, o que inclui a proteção contra cyberbullying facilitado pelo uso indevido de dados pessoais.

O Regime de Responsabilidade das Plataformas

O art. 19 do Marco Civil da Internet estabelece o chamado regime de "notificação judicial" (judicial notice and takedown): a plataforma só é responsabilizada se descumprir ordem judicial específica de remoção. Esse regime tem sido criticado por ser insuficiente para proteger menores — o tempo entre a publicação do conteúdo nocivo, a obtenção de ordem judicial e a efetiva remoção pode causar danos irreversíveis.

O ECA Digital busca superar essa limitação ao impor às plataformas obrigações proativas de proteção de menores que independem de ordem judicial. Verifica-se que há tensão com o modelo do Marco Civil, mas parece-nos que o princípio da proteção integral (art. 227, CF) justifica regime mais rigoroso quando estão em jogo direitos de crianças e adolescentes.

Na experiência internacional, o Digital Services Act (DSA) europeu (Regulamento 2022/2065) impõe às plataformas obrigações proativas de avaliação de risco e mitigação, incluindo riscos específicos para menores (art. 35, 1, d). O Online Safety Act 2023 britânico vai além, impondo dever de cuidado específico para proteção de crianças contra conteúdo nocivo.

Moderação de Conteúdo: Desafios e Limites

A moderação de conteúdo em escala apresenta desafios técnicos e éticos significativos. Plataformas que recebem milhões de postagens diárias dependem, em grande medida, de sistemas automatizados de moderação — algoritmos treinados para identificar conteúdo potencialmente nocivo.

Esses sistemas, contudo, são imperfeitos. Apresentam tanto falsos negativos (conteúdo nocivo que escapa à detecção) quanto falsos positivos (conteúdo legítimo removido indevidamente). No caso do cyberbullying, a detecção automatizada é particularmente desafiadora: ironia, sarcasmo e contexto cultural podem tornar agressivo um texto que, em análise superficial, parece inofensivo.

Parece-nos que a solução não é a moderação exclusivamente automatizada, mas a combinação de detecção algorítmica com revisão humana especializada — especialmente quando o conteúdo envolve menores. O relatório de transparência da Meta de 2023 reconhece que, para determinadas categorias de conteúdo, a revisão humana permanece indispensável.

Remoção Ágil: O Padrão Esperado

Quanto à remoção de conteúdo nocivo envolvendo menores, o ECA Digital deve estabelecer prazo de remoção significativamente mais curto que o praticado sob o regime geral do Marco Civil. A experiência da Alemanha com a NetzDG (Lei de Aplicação de Rede, 2017) oferece referência: conteúdo "manifestamente ilícito" deve ser removido em 24 horas após notificação, e conteúdo "ilícito" em 7 dias.

Para conteúdo de cyberbullying e material nocivo envolvendo menores identificados, parece-nos razoável que o ECA Digital imponha prazo máximo de 24 horas para remoção após notificação fundamentada — sem necessidade de ordem judicial —, com possibilidade de contestação posterior pela parte que publicou o conteúdo.

Prevenção: Obrigações Proativas

Para além da remoção reativa, o ECA Digital impõe obrigações preventivas:

Implementar ferramentas de detecção proativa de cyberbullying, incluindo análise de padrões de interação que indiquem assédio sistemático.

Disponibilizar canais de denúncia acessíveis e adequados à faixa etária, com resposta em prazo razoável.

Oferecer recursos de apoio a vítimas de cyberbullying, incluindo orientação para busca de auxílio psicológico e encaminhamento a autoridades competentes.

Implementar mecanismos de consequência para agressores, proporcionais à gravidade da conduta, incluindo suspensão e banimento de contas.

Considerações Finais

Cabe ressaltar que o combate ao cyberbullying e ao conteúdo nocivo não é questão que se resolva exclusivamente pela via normativa — exige ação coordenada entre plataformas, famílias, escolas e autoridades. O ECA Digital oferece o marco jurídico; a efetividade depende de implementação consistente e de uma cultura de responsabilidade digital que reconheça as plataformas como ambientes que, assim como a escola e a via pública, devem ser seguros para crianças e adolescentes.

ECA DigitalCyberbullyingConteúdo NocivoModeração de ConteúdoLei do Bullying

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco