Supremo determina que plataformas podem ser responsabilizadas por posts sem remoção

O Supremo Tribunal Federal (STF) decidiu nesta quinta-feira (26.jun.2025) ampliar a responsabilidade civil das redes sociais sobre conteúdos publicados por usuários que não sejam removidos. Por 8 votos a 3, os ministros definiram quando é necessário uma ordem judicial para exclusão, quando basta uma notificação privada e em quais situações as plataformas devem agir espontaneamente para impedir a divulgação de determinados conteúdos.

A decisão considerou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que estabelecia a necessidade de ordem judicial para a remoção de conteúdos como regra geral. Agora, essa exigência será exceção, limitada a casos de crimes contra a honra. A regra geral passa a ser o artigo 21, que prevê a remoção mediante notificação privada em determinadas situações.

O placar final foi:

  • Manter a necessidade de ordem judicial para qualquer conteúdo: 3 votos (André Mendonça, Edson Fachin e Nunes Marques);

  • Limitar a ordem judicial a crimes contra a honra: 8 votos (Dias Toffoli, Luiz Fux, Alexandre de Moraes, Roberto Barroso, Flávio Dino, Cristiano Zanin, Gilmar Mendes e Cármen Lúcia).

O presidente do STF, Roberto Barroso, esclareceu que o tribunal não legisla, mas decide casos concretos apresentados à Corte, estabelecendo critérios que valerão até que o Congresso regule a matéria. Segundo ele, a decisão equilibra a liberdade de expressão nas plataformas com outros direitos fundamentais, como honra, privacidade e intimidade.

Responsabilização das redes sociais

O STF entendeu que o artigo 19 do Marco Civil é insuficiente para proteger direitos fundamentais e a democracia. Enquanto não houver nova lei, as redes sociais poderão ser responsabilizadas civilmente por conteúdos ilícitos, especialmente em crimes cometidos por contas falsas.

Para crimes contra a honra — calúnia, difamação e injúria — a remoção dependerá de ordem judicial. Já para conteúdos graves que circulam de forma repetitiva e massiva, as plataformas devem agir espontaneamente, sob risco de responsabilização mesmo sem ordem judicial ou notificação privada. Entre esses conteúdos estão:

  • Atos e condutas antidemocráticas;

  • Crimes de terrorismo e preparatórios;

  • Indução, instigação ou auxílio ao suicídio e automutilação;

  • Incitação à discriminação por raça, cor, etnia, religião, nacionalidade, orientação sexual ou identidade de gênero (incluindo homofobia e transfobia);

  • Crimes contra mulheres por motivo do sexo feminino, incluindo incitação ao ódio;

  • Crimes sexuais contra pessoas vulneráveis, pornografia infantil e abusos contra crianças e adolescentes;

  • Tráfico de pessoas.

O STF destacou que a existência isolada de um conteúdo ilícito não basta para responsabilizar as plataformas. Para a remoção de posts individuais que configuram crimes graves, é necessária notificação privada, e a responsabilização só ocorre se o conteúdo não for retirado.

Além disso, as redes sociais passam a ser presumidamente responsáveis por conteúdos ilícitos impulsionados por anúncios pagos ou distribuídos por robôs automatizados (bots), podendo ser responsabilizadas sem notificação.

A decisão não se aplica a plataformas de e-mail (Gmail, Yahoo, Outlook), videoconferência (Zoom, Google Meet, Microsoft Teams) e mensagens privadas (WhatsApp, Telegram), que têm sigilo garantido.

O STF confirmou que marketplaces continuam regidos pelo Código de Defesa do Consumidor.

As plataformas devem criar regras próprias de autorregulação, com sistemas de notificação, transparência e canais acessíveis ao público. Empresas estrangeiras que operam no Brasil deverão ter sede ou representante legal no país, aptos a responder judicialmente e administrativamente.

Por fim, o tribunal recomendou que o Congresso atualize a legislação para corrigir as lacunas apontadas. A nova interpretação valerá apenas para casos futuros, sem alterar decisões judiciais já transitadas em julgado.