STF decide que redes devem remover conteúdos ilegais após notificação, com exceção a crimes contra a honra
O Supremo Tribunal Federal (STF) decidiu nesta quinta-feira (26) que redes sociais poderão ser responsabilizadas por conteúdos ilegais publicados por usuários, mesmo sem decisão judicial. Oito ministros votaram a favor e três contra, alterando o entendimento sobre o artigo 19 do Marco Civil da Internet, que consideraram parcialmente inconstitucional. As plataformas digitais deverão remover publicações ilícitas após receberem notificação extrajudicial, sob risco de responderem por danos civis. Antes, a retirada só era obrigatória mediante ordem judicial, com exceção de alguns casos previstos em lei.
O novo entendimento busca fortalecer a proteção de direitos fundamentais e combater a disseminação de conteúdos que ameaçam a democracia. A medida se aplica a casos como atos antidemocráticos, terrorismo, incitação à violência, pedofilia e discursos de ódio. Já crimes contra a honra, como calúnia, injúria e difamação, ainda exigem decisão judicial para a exclusão de conteúdo. O STF também determinou que todas as plataformas devem retirar réplicas de conteúdos já considerados ilegais pela Justiça, sem a necessidade de nova decisão.
Notificação extrajudicial e dever de cuidado
Além da notificação privada, o tribunal criou a figura do “dever de cuidado”, impondo às plataformas a obrigação de evitar a circulação de conteúdos extremamente graves. Isso inclui ajustar algoritmos e sistemas de moderação para impedir que publicações com conteúdo criminoso grave cheguem ao público. O STF também aplicará a responsabilização a casos de impulsionamento pago e uso de robôs para amplificar conteúdo ilegal. Nestes casos, haverá presunção de responsabilidade, mesmo sem notificação, exceto se a empresa comprovar atuação rápida e eficaz.
As autoridades poderão responsabilizar as plataformas negligentes por falhas sistêmicas, e não por atos isolados. O STF determinou que as plataformas devem monitorar com mais rigor os conteúdos promovidos com pagamento ou amplificados artificialmente. A decisão visa conter o avanço da desinformação e do discurso de ódio, que se espalham com rapidez no ambiente digital. A meta é garantir mais responsabilidade a quem lucra com o alcance dessas postagens.
Regras valem a partir de agora, sem retroatividade
As plataformas deverão manter representação jurídica no Brasil para atender determinações judiciais e fornecer dados sobre moderação de conteúdo. Devem também criar regras claras de autorregulação e publicar relatórios anuais com informações sobre as notificações recebidas e conteúdos removidos. Por outro lado, a decisão preserva o sigilo para serviços de e-mail e mensagens privadas, como WhatsApp e Telegram. Nestes casos, as plataformas só poderão ser responsabilizadas mediante decisão judicial, como prevê o artigo 19.
A nova interpretação do Marco Civil vale de forma imediata, mas não se aplica a casos passados. O STF determinou que as plataformas devem seguir essas diretrizes até que o Congresso aprove uma legislação específica sobre o tema. A Corte entende que a omissão legislativa não pode impedir a proteção de direitos fundamentais em ambiente digital. A decisão passa a ser referência para todo o Judiciário e deve afetar diretamente a atuação das big techs no país.