Voltar ao Blog
ECA DigitalProteção Digital

O Dever de Cuidado (Duty of Care) das Plataformas para com Menores

Conceito de duty of care aplicado às plataformas digitais na proteção de menores: experiência britânica do Online Safety Act 2023 e aplicação no Brasil.

Alessandro Lavorante 21 de março de 2026 6 min de leitura

O conceito de duty of care — dever de cuidado — tem raízes profundas no direito anglo-saxão e encontra paralelos no direito civil brasileiro. Sua aplicação às plataformas digitais na proteção de crianças e adolescentes representa uma das mais significativas evoluções regulatórias da última década. Parece-nos oportuno examinar esse conceito, sua tradução normativa no Online Safety Act 2023 britânico e suas implicações para o ordenamento brasileiro.

O Conceito de Duty of Care

No common law, o duty of care é a obrigação jurídica de agir com diligência razoável para evitar causar dano previsível a terceiros. Desde o caso Donoghue v. Stevenson (1932), julgado pela House of Lords, consolidou-se o princípio de que quem cria um risco previsível de dano tem o dever de adotar medidas razoáveis para preveni-lo.

No direito brasileiro, o conceito encontra correspondência na responsabilidade civil por omissão e no dever geral de cautela. O art. 186 do Código Civil estabelece que "aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito". O art. 927, parágrafo único, prevê a responsabilidade objetiva para atividades que, por sua natureza, impliquem risco para os direitos de outrem.

Quando aplicado às plataformas digitais, o duty of care traduz-se na obrigação de adotar medidas razoáveis e proporcionais para proteger seus usuários — especialmente menores — contra danos previsíveis decorrentes do uso de seus serviços.

O Online Safety Act 2023 do Reino Unido

O Online Safety Act 2023, promulgado pelo Parlamento britânico em outubro de 2023, constitui o marco normativo mais ambicioso de imposição de dever de cuidado a plataformas digitais. A lei impõe às plataformas deveres específicos em relação a crianças:

Duty to protect children (Seção 12): plataformas que são acessíveis a crianças devem adotar medidas proporcionais para proteger menores de conteúdo nocivo, incluindo conteúdo que promova autolesão, distúrbios alimentares, bullying e pornografia.

Children's Risk Assessment (Seção 11): plataformas devem realizar avaliações de risco específicas para menores, identificando conteúdos e funcionalidades que possam causar dano e adotando medidas de mitigação.

Safety Duties (Seção 12): após a avaliação de risco, as plataformas devem implementar medidas de segurança que minimizem a probabilidade de crianças acessarem conteúdo nocivo, incluindo verificação de idade e moderação de conteúdo.

A fiscalização cabe ao Ofcom (Office of Communications), que recebeu poderes para impor multas de até 10% do faturamento global da empresa ou £18 milhões, o que for maior.

O Caso Molly Russell

O caso de Molly Russell, adolescente britânica de 14 anos que faleceu em novembro de 2017 após período de exposição a conteúdos sobre autolesão e suicídio no Instagram e Pinterest, foi determinante para a aprovação do Online Safety Act. A investigação judicial (inquest), concluída em setembro de 2022, determinou que o conteúdo visualizado por Molly "contribuiu para sua morte de uma forma mais do que mínima" e que parte desse conteúdo "não deveria estar disponível para uma criança".

O caso evidenciou que os algoritmos de recomendação das plataformas não apenas falharam em proteger a adolescente, mas ativamente amplificaram sua exposição a conteúdo nocivo. O coroner (magistrado responsável pela investigação) recomendou expressamente mudanças regulatórias — recomendação que se materializou no Online Safety Act.

Aplicação no Direito Brasileiro

Verifica-se que o ordenamento jurídico brasileiro oferece fundamentos para a imposição de dever de cuidado análogo ao modelo britânico.

O art. 227 da CF/88 impõe à sociedade — incluindo empresas privadas — o dever de colocar crianças e adolescentes a salvo de toda forma de negligência. O ECA, em seu art. 70, determina que "é dever de todos prevenir a ocorrência de ameaça ou violação dos direitos da criança e do adolescente".

O Marco Civil da Internet (Lei 12.965/2014), embora adote o modelo de responsabilização mediante notificação judicial (art. 19), prevê exceção para conteúdos envolvendo nudez ou atos sexuais de caráter privado (art. 21), que devem ser removidos mediante notificação direta — sem necessidade de ordem judicial. Parece-nos que, por analogia e à luz do ECA Digital, conteúdo nocivo direcionado a menores deveria receber tratamento igualmente expedito.

O CDC (Lei 8.078/1990), em seu art. 12, impõe responsabilidade objetiva ao fornecedor por defeitos do produto. Se uma plataforma digital é considerada "produto" e seu algoritmo apresenta "defeito" ao recomendar conteúdo nocivo a menores, a responsabilização objetiva é juridicamente defensável.

Contrapontos: Limites do Dever de Cuidado

Há objeções legítimas à imposição de dever de cuidado amplo. Argumenta-se que transformar plataformas em guardiãs do conteúdo pode conduzir à censura privada, com remoção excessiva de conteúdo legítimo (overblocking). Sustenta-se, ainda, que a responsabilidade primária pela proteção de menores é dos pais, não das empresas.

Parece-nos que ambos os argumentos merecem consideração, mas nenhum deles afasta a razoabilidade do dever de cuidado. A censura excessiva pode ser mitigada por obrigações de proporcionalidade e transparência. Quanto à responsabilidade parental, é evidente que pais não podem supervisionar cada interação de seus filhos em plataformas cujo funcionamento interno desconhecem — o dever de cuidado das plataformas complementa, mas não substitui, a responsabilidade familiar.

O próprio Online Safety Act britânico equilibra essas tensões ao adotar o padrão de "medidas proporcionais" — o que se exige não é perfeição, mas diligência razoável, proporcional ao risco e à capacidade da plataforma.

O ECA Digital e o Dever de Cuidado

O ECA Digital, ao impor obrigações específicas de proteção de menores a plataformas digitais, consagra, na prática, um dever de cuidado. A inovação está em tornar explícito o que antes dependia de construção interpretativa: plataformas que atendem menores têm obrigação afirmativa de protegê-los, não apenas de não lhes causar dano diretamente.

Considerações Finais

Cabe ressaltar que o dever de cuidado das plataformas para com menores não é concessão graciosa nem excesso regulatório — é decorrência lógica de um sistema jurídico que reconhece a criança como sujeito de direitos em condição peculiar de desenvolvimento. Se as plataformas se beneficiam da atenção e dos dados de menores, é razoável que assumam o ônus de protegê-los. A questão, como sempre, é de implementação: estabelecer padrões claros, fiscalização efetiva e sanções proporcionais que transformem o dever jurídico em prática concreta.

ECA DigitalDuty of CareDever de CuidadoOnline Safety ActPlataformas Digitais

Alessandro Casoretti Lavorante

Prof. Me. pela USP

Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".

Precisa de assessoria jurídica?

Entre em contato para uma consulta especializada em Direito e Tecnologia.

Fale Conosco