A responsabilidade de plataformas digitais por conteúdo gerado por seus usuários é um dos temas mais debatidos no direito digital contemporâneo. O regime brasileiro, estabelecido pelo Marco Civil da Internet e moldado pela jurisprudência, busca equilibrar a proteção de direitos individuais com a viabilidade operacional das plataformas e a liberdade de expressão.
O Regime do Marco Civil
O artigo 19 do Marco Civil estabelece o sistema de notice and takedown judicial: o provedor de aplicações só responde por conteúdo de terceiros se, após ordem judicial específica, não remover o conteúdo. Esse modelo foi pensado para evitar que plataformas censurassem preventivamente conteúdos por medo de responsabilização.
A exceção do artigo 21 trata de conteúdo íntimo (nudez ou atos sexuais privados): nesse caso, a simples notificação do participante é suficiente para gerar a obrigação de remoção, sem necessidade de ordem judicial.
Evolução Jurisprudencial
A jurisprudência brasileira tem interpretado o artigo 19 de forma dinâmica. Os tribunais têm reconhecido que, em determinadas situações, a responsabilidade da plataforma pode ser configurada independentemente de ordem judicial, especialmente quando: a plataforma tinha conhecimento do conteúdo ilícito e não agiu; o conteúdo era manifestamente ilícito; ou a plataforma se beneficia economicamente do conteúdo ilícito.
Moderação de Conteúdo
A moderação de conteúdo é o processo pelo qual plataformas avaliam e eventualmente removem conteúdo que viola seus termos de uso. A moderação levanta questões jurídicas complexas: até que ponto a plataforma pode restringir conteúdo sem violar a liberdade de expressão; quais garantias de devido processo devem ser oferecidas aos usuários; e se a moderação ativa aumenta a responsabilidade da plataforma por conteúdos não moderados.
Plataformas como Intermediários
O debate sobre a natureza jurídica das plataformas é central. São meros intermediários neutros ou exercem papel ativo na curadoria e promoção de conteúdo? Algoritmos de recomendação que amplificam determinados conteúdos podem configurar participação ativa, alterando a análise de responsabilidade.
Desafios da Escala
A operação em escala global traz desafios específicos: bilhões de conteúdos são publicados diariamente, tornando a moderação individual impraticável. Sistemas automatizados de detecção, embora necessários, apresentam limitações significativas em compreender contexto, sarcasmo e nuances culturais.
Tendências Regulatórias
O Brasil tem discutido propostas legislativas para ampliar as obrigações das plataformas digitais, incluindo obrigações de transparência algorítmica, deveres de cuidado na moderação, responsabilidade ampliada por conteúdos amplificados por algoritmos e cooperação com autoridades em investigações. Essas propostas refletem uma tendência global de maior regulação das plataformas, inspirada em marcos como o Digital Services Act europeu.
As plataformas devem acompanhar essa evolução regulatória e adaptar suas políticas de moderação e compliance para se manterem em conformidade com o arcabouço normativo em constante evolução.
Alessandro Casoretti Lavorante
Prof. Me. pela USP
Advogado especializado em Direito Digital, IA e Startups. Mestre em Direito Civil pela USP. Autor do livro "Responsabilidade Civil por Inteligência Artificial".