Tira e põe nas redes: o que muda com a decisão do STF

Por Marcelo Arigony

No dia 27 de junho de 2025, o Supremo Tribunal Federal reposicionou o debate sobre o que as plataformas digitais podem — ou devem — permitir que permaneça no ar. Ao reinterpretar parte do Marco Civil da Internet, os ministros abriram espaço para que empresas como Instagram, YouTube, Facebook e X passem a responder por certos tipos de conteúdo ilegal publicados por seus usuários, mesmo sem ordem judicial. É uma mudança de postura que não passa despercebida: o que antes era tolerado sob a desculpa da neutralidade agora passa a ter consequência jurídica direta.

Essa decisão acende, mais uma vez, o debate sobre os limites da liberdade no ambiente digital. Há quem veja avanço. Há quem enxergue censura. Mas talvez o ponto mais sensato, neste momento, seja reconhecer que o equilíbrio entre expressão e responsabilidade ficou mais instável — e que não há solução fácil para um problema que cresceu à sombra da inércia legislativa. O Supremo preencheu um vácuo. Mas o preço dessa lacuna mal resolvida ainda está em aberto.

O novo entendimento não se aplica apenas a conteúdos extremos, mas parte deles para definir parâmetros mais duros. Em casos como terrorismo, pornografia infantil, tráfico de pessoas, incitação ao suicídio, ataques à democracia ou violência contra a mulher, a plataforma pode ser responsabilizada mesmo que ninguém tenha exigido formalmente a retirada. Se o conteúdo estiver sendo promovido por robôs ou impulsionado de forma paga, o risco de responsabilização aumenta — junto com a urgência de resposta.

Nos demais casos — como apologia ao crime, ataques a grupos vulneráveis ou incitação à violência — uma simples notificação extrajudicial já basta. Se a denúncia chegar e for ignorada, a empresa poderá ser chamada a responder. Trata-se de uma mudança importante: deixa-se de esperar o Judiciário e passa-se a exigir reação imediata da plataforma, sob pena de arcar com as consequências da omissão.

Alguns limites, no entanto, permanecem. Crimes contra a honra — calúnia, difamação, injúria — continuam dependendo de ordem judicial. E o sigilo das comunicações privadas, como no WhatsApp ou Telegram, segue protegido pela Constituição. A nova lógica se aplica ao que é visível, público e, principalmente, impulsionado em larga escala.

Na prática, a regra muda o ponto de partida. Se antes o conteúdo permanecia no ar até que o Judiciário se manifestasse, agora ele pode ser retirado preventivamente — e caberá ao autor recorrer para tentar restaurá-lo. Isso tende a gerar uma sobrecarga de disputas e um ciclo instável de remoções e reintegrações. Uma espécie de “tira e põe digital” que pode se tornar regra, e não exceção.

O que se tem agora é um novo padrão de conduta exigido das plataformas. Representação legal no país, canais funcionais de denúncia, mais transparência nos bastidores da moderação. A decisão cobra postura ativa — mas, ao mesmo tempo, transfere para o particular a responsabilidade de reagir quando seu conteúdo for retirado. E isso, na prática, pode significar que a liberdade de expressão passe a depender da velocidade de um juiz ou da sorte de uma liminar.

Enquanto o Congresso não legisla, seguimos operando por decisões pontuais — que tentam conter um problema real, mas correm o risco de abrir precedentes difíceis de controlar. O que hoje se justifica pela gravidade do conteúdo, amanhã pode escorregar para o campo das opiniões. O alerta está feito. E, no meio do ruído, talvez a pergunta mais honesta ainda seja: quem decide o que deve ou não sair do ar?

A internet virou praça pública — mas com microfone, caixa de som e algoritmo. E nesse cenário, nem sempre o silêncio é omissão. Às vezes, o silêncio é apenas receio de errar o alvo — ou de ser o próximo a ser retirado de cena.

GOSTOU DA NOTÍCIA? COMPARTILHE

PARCEIROS