STF MUDA REGRAS E RESPONSABILIZA REDES SOCIAIS POR POSTAGENS ILEGAIS NO BRASIL

O Supremo Tribunal Federal (STF) aprovou, por 8 votos a 3, uma decisão histórica que altera o entendimento sobre a responsabilidade das plataformas digitais no Brasil.
A partir de agora, redes sociais como Facebook, Instagram, TikTok, YouTube e X (ex-Twitter) poderão ser responsabilizadas diretamente por conteúdos ilegais postados por seus usuários, desde que notificadas extrajudicialmente e não tomem providências imediatas para remover o material.
A decisão, tomada na última quinta-feira (26), reinterpretou o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que há mais de uma década condicionava a responsabilização civil das plataformas a uma ordem judicial prévia. Com a nova diretriz, não será mais necessário esperar uma decisão judicial para que a plataforma sofra sanções, especialmente nos casos mais graves.
Crimes graves e conteúdos ilegais na mira
O STF definiu um rol de crimes considerados especialmente graves, em que a remoção imediata será obrigatória assim que a plataforma for notificada. Caso o conteúdo permaneça no ar, as redes poderão ser responsabilizadas por danos morais e materiais causados a terceiros.
Entre os conteúdos enquadrados na nova norma estão:
- Atos antidemocráticos e crimes de terrorismo;
- Incitação ao suicídio ou automutilação;
- Discurso de ódio e discriminação por raça, etnia, religião, sexualidade ou identidade de gênero;
- Crimes de violência contra a mulher;
- Pornografia infantil e crimes contra crianças e adolescentes.
A decisão também obriga a remoção de replicações de postagens já declaradas ilegais pela Justiça, mesmo sem nova decisão judicial.
Casos com e sem notificação
Plataformas serão responsabilizadas sem necessidade de notificação prévia em duas situações específicas:
- Quando houver anúncio ou impulsionamento pago de conteúdo ilegal;
- No uso de bots ou redes artificiais para disseminar informações ilícitas.
No entanto, em casos de crimes contra a honra — como calúnia, difamação e injúria —, permanece a necessidade de decisão judicial para remoção, por se tratar de ofensas de caráter pessoal.
Serviços de mensagens privadas, como WhatsApp, Telegram e e-mail, continuam protegidos pelo princípio da inviolabilidade das comunicações, e seus provedores não poderão ser responsabilizados diretamente pelos conteúdos compartilhados nesses ambientes.
Transparência e autorregulação obrigatória
Outra mudança importante é a exigência de autorregulação pelas plataformas. Elas deverão:
- Criar regras claras para o recebimento e resposta a notificações extrajudiciais;
- Produzir relatórios anuais de transparência sobre moderação de conteúdo.
Além disso, o STF determinou que as empresas mantenham representação jurídica no Brasil, com responsabilidade para atender às ordens da Justiça e fornecer dados quando solicitados por autoridades.
Impacto imediato e validade da decisão
A nova interpretação do STF tem efeito imediato, mas não retroativo. Ou seja, só valerá para conteúdos e casos a partir da decisão. Ela permanece em vigor até que o Congresso Nacional aprove uma legislação específica sobre o tema.
Para a região de Cotia e Grande São Paulo, onde cresce a atuação de produtores de conteúdo, pequenos influenciadores e empresas que utilizam redes para publicidade, a decisão traz impactos diretos na forma como conteúdos serão monitorados e denunciados.
A medida é vista por especialistas como um avanço na proteção dos direitos fundamentais e no combate à desinformação, mas também levanta debates sobre os limites da liberdade de expressão e o risco de moderação excessiva por parte das plataformas.
(Da redação. © Joédson Alves/Agência Brasil – Logomarcas de plataformas digitais e big techs Pixabay/Wikimedia)
Nova interpretação do Marco Civil da Internet exige remoção de conteúdo criminoso após notificação extrajudicial; decisão tem efeito imediato, mas não retroativo
O Supremo Tribunal Federal (STF) aprovou, por 8 votos a 3, uma decisão histórica que altera o entendimento sobre a responsabilidade das plataformas digitais no Brasil.
A partir de agora, redes sociais como Facebook, Instagram, TikTok, YouTube e X (ex-Twitter) poderão ser responsabilizadas diretamente por conteúdos ilegais postados por seus usuários, desde que notificadas extrajudicialmente e não tomem providências imediatas para remover o material.
A decisão, tomada na última quinta-feira (26), reinterpretou o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que há mais de uma década condicionava a responsabilização civil das plataformas a uma ordem judicial prévia. Com a nova diretriz, não será mais necessário esperar uma decisão judicial para que a plataforma sofra sanções, especialmente nos casos mais graves.
Crimes graves e conteúdos ilegais na mira
O STF definiu um rol de crimes considerados especialmente graves, em que a remoção imediata será obrigatória assim que a plataforma for notificada. Caso o conteúdo permaneça no ar, as redes poderão ser responsabilizadas por danos morais e materiais causados a terceiros.
Entre os conteúdos enquadrados na nova norma estão:
- Atos antidemocráticos e crimes de terrorismo;
- Incitação ao suicídio ou automutilação;
- Discurso de ódio e discriminação por raça, etnia, religião, sexualidade ou identidade de gênero;
- Crimes de violência contra a mulher;
- Pornografia infantil e crimes contra crianças e adolescentes.
A decisão também obriga a remoção de replicações de postagens já declaradas ilegais pela Justiça, mesmo sem nova decisão judicial.
Casos com e sem notificação
Plataformas serão responsabilizadas sem necessidade de notificação prévia em duas situações específicas:
- Quando houver anúncio ou impulsionamento pago de conteúdo ilegal;
- No uso de bots ou redes artificiais para disseminar informações ilícitas.
No entanto, em casos de crimes contra a honra — como calúnia, difamação e injúria —, permanece a necessidade de decisão judicial para remoção, por se tratar de ofensas de caráter pessoal.
Serviços de mensagens privadas, como WhatsApp, Telegram e e-mail, continuam protegidos pelo princípio da inviolabilidade das comunicações, e seus provedores não poderão ser responsabilizados diretamente pelos conteúdos compartilhados nesses ambientes.
Transparência e autorregulação obrigatória
Outra mudança importante é a exigência de autorregulação pelas plataformas. Elas deverão:
- Criar regras claras para o recebimento e resposta a notificações extrajudiciais;
- Produzir relatórios anuais de transparência sobre moderação de conteúdo.
Além disso, o STF determinou que as empresas mantenham representação jurídica no Brasil, com responsabilidade para atender às ordens da Justiça e fornecer dados quando solicitados por autoridades.
Impacto imediato e validade da decisão
A nova interpretação do STF tem efeito imediato, mas não retroativo. Ou seja, só valerá para conteúdos e casos a partir da decisão. Ela permanece em vigor até que o Congresso Nacional aprove uma legislação específica sobre o tema.
Para a região de Cotia e Grande São Paulo, onde cresce a atuação de produtores de conteúdo, pequenos influenciadores e empresas que utilizam redes para publicidade, a decisão traz impactos diretos na forma como conteúdos serão monitorados e denunciados.
A medida é vista por especialistas como um avanço na proteção dos direitos fundamentais e no combate à desinformação, mas também levanta debates sobre os limites da liberdade de expressão e o risco de moderação excessiva por parte das plataformas.
(Da redação. © Marcello Casal Jr/Agência Brasil – Logomarcas de plataformas digitais e big techs Pixabay/Wikimedia)
ENTENDA COMO O “CPF DOS IMÓVEIS” MUDA A FISCALIZAÇÃO TRIBUTÁRIA
18 de fevereiro de 2026FRAUDE DO FALSO ADVOGADO SE EXPANDE PELO BRASIL; PREVINA-SE
18 de fevereiro de 2026ARGENTINA REDUZ MAIORIDADE PENAL PARA 14 ANOS
18 de fevereiro de 2026
More News
-
FOTO EM REDE SOCIAL E DEPOIMENTOS TESTEMUNHAIS COMPROVAM UNIÃO ESTÁVEL
29 de maio de 2023 -
CELEBRE ESCOLHENDO UM LIVRO: HOJE É DIA MUNDIAL DAS BIBLIOTECAS
1 de julho de 2022 -
MITOS EM TORNO DO CÂNCER DE MAMA ATRASAM DIAGNÓSTICOS
10 de outubro de 2025





