STF MUDA REGRAS E RESPONSABILIZA REDES SOCIAIS POR POSTAGENS ILEGAIS NO BRASIL

O Supremo Tribunal Federal (STF) aprovou, por 8 votos a 3, uma decisão histórica que altera o entendimento sobre a responsabilidade das plataformas digitais no Brasil.
A partir de agora, redes sociais como Facebook, Instagram, TikTok, YouTube e X (ex-Twitter) poderão ser responsabilizadas diretamente por conteúdos ilegais postados por seus usuários, desde que notificadas extrajudicialmente e não tomem providências imediatas para remover o material.
A decisão, tomada na última quinta-feira (26), reinterpretou o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que há mais de uma década condicionava a responsabilização civil das plataformas a uma ordem judicial prévia. Com a nova diretriz, não será mais necessário esperar uma decisão judicial para que a plataforma sofra sanções, especialmente nos casos mais graves.
Crimes graves e conteúdos ilegais na mira
O STF definiu um rol de crimes considerados especialmente graves, em que a remoção imediata será obrigatória assim que a plataforma for notificada. Caso o conteúdo permaneça no ar, as redes poderão ser responsabilizadas por danos morais e materiais causados a terceiros.
Entre os conteúdos enquadrados na nova norma estão:
- Atos antidemocráticos e crimes de terrorismo;
- Incitação ao suicídio ou automutilação;
- Discurso de ódio e discriminação por raça, etnia, religião, sexualidade ou identidade de gênero;
- Crimes de violência contra a mulher;
- Pornografia infantil e crimes contra crianças e adolescentes.
A decisão também obriga a remoção de replicações de postagens já declaradas ilegais pela Justiça, mesmo sem nova decisão judicial.
Casos com e sem notificação
Plataformas serão responsabilizadas sem necessidade de notificação prévia em duas situações específicas:
- Quando houver anúncio ou impulsionamento pago de conteúdo ilegal;
- No uso de bots ou redes artificiais para disseminar informações ilícitas.
No entanto, em casos de crimes contra a honra — como calúnia, difamação e injúria —, permanece a necessidade de decisão judicial para remoção, por se tratar de ofensas de caráter pessoal.
Serviços de mensagens privadas, como WhatsApp, Telegram e e-mail, continuam protegidos pelo princípio da inviolabilidade das comunicações, e seus provedores não poderão ser responsabilizados diretamente pelos conteúdos compartilhados nesses ambientes.
Transparência e autorregulação obrigatória
Outra mudança importante é a exigência de autorregulação pelas plataformas. Elas deverão:
- Criar regras claras para o recebimento e resposta a notificações extrajudiciais;
- Produzir relatórios anuais de transparência sobre moderação de conteúdo.
Além disso, o STF determinou que as empresas mantenham representação jurídica no Brasil, com responsabilidade para atender às ordens da Justiça e fornecer dados quando solicitados por autoridades.
Impacto imediato e validade da decisão
A nova interpretação do STF tem efeito imediato, mas não retroativo. Ou seja, só valerá para conteúdos e casos a partir da decisão. Ela permanece em vigor até que o Congresso Nacional aprove uma legislação específica sobre o tema.
Para a região de Cotia e Grande São Paulo, onde cresce a atuação de produtores de conteúdo, pequenos influenciadores e empresas que utilizam redes para publicidade, a decisão traz impactos diretos na forma como conteúdos serão monitorados e denunciados.
A medida é vista por especialistas como um avanço na proteção dos direitos fundamentais e no combate à desinformação, mas também levanta debates sobre os limites da liberdade de expressão e o risco de moderação excessiva por parte das plataformas.
(Da redação. © Joédson Alves/Agência Brasil – Logomarcas de plataformas digitais e big techs Pixabay/Wikimedia)
Nova interpretação do Marco Civil da Internet exige remoção de conteúdo criminoso após notificação extrajudicial; decisão tem efeito imediato, mas não retroativo
O Supremo Tribunal Federal (STF) aprovou, por 8 votos a 3, uma decisão histórica que altera o entendimento sobre a responsabilidade das plataformas digitais no Brasil.
A partir de agora, redes sociais como Facebook, Instagram, TikTok, YouTube e X (ex-Twitter) poderão ser responsabilizadas diretamente por conteúdos ilegais postados por seus usuários, desde que notificadas extrajudicialmente e não tomem providências imediatas para remover o material.
A decisão, tomada na última quinta-feira (26), reinterpretou o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que há mais de uma década condicionava a responsabilização civil das plataformas a uma ordem judicial prévia. Com a nova diretriz, não será mais necessário esperar uma decisão judicial para que a plataforma sofra sanções, especialmente nos casos mais graves.
Crimes graves e conteúdos ilegais na mira
O STF definiu um rol de crimes considerados especialmente graves, em que a remoção imediata será obrigatória assim que a plataforma for notificada. Caso o conteúdo permaneça no ar, as redes poderão ser responsabilizadas por danos morais e materiais causados a terceiros.
Entre os conteúdos enquadrados na nova norma estão:
- Atos antidemocráticos e crimes de terrorismo;
- Incitação ao suicídio ou automutilação;
- Discurso de ódio e discriminação por raça, etnia, religião, sexualidade ou identidade de gênero;
- Crimes de violência contra a mulher;
- Pornografia infantil e crimes contra crianças e adolescentes.
A decisão também obriga a remoção de replicações de postagens já declaradas ilegais pela Justiça, mesmo sem nova decisão judicial.
Casos com e sem notificação
Plataformas serão responsabilizadas sem necessidade de notificação prévia em duas situações específicas:
- Quando houver anúncio ou impulsionamento pago de conteúdo ilegal;
- No uso de bots ou redes artificiais para disseminar informações ilícitas.
No entanto, em casos de crimes contra a honra — como calúnia, difamação e injúria —, permanece a necessidade de decisão judicial para remoção, por se tratar de ofensas de caráter pessoal.
Serviços de mensagens privadas, como WhatsApp, Telegram e e-mail, continuam protegidos pelo princípio da inviolabilidade das comunicações, e seus provedores não poderão ser responsabilizados diretamente pelos conteúdos compartilhados nesses ambientes.
Transparência e autorregulação obrigatória
Outra mudança importante é a exigência de autorregulação pelas plataformas. Elas deverão:
- Criar regras claras para o recebimento e resposta a notificações extrajudiciais;
- Produzir relatórios anuais de transparência sobre moderação de conteúdo.
Além disso, o STF determinou que as empresas mantenham representação jurídica no Brasil, com responsabilidade para atender às ordens da Justiça e fornecer dados quando solicitados por autoridades.
Impacto imediato e validade da decisão
A nova interpretação do STF tem efeito imediato, mas não retroativo. Ou seja, só valerá para conteúdos e casos a partir da decisão. Ela permanece em vigor até que o Congresso Nacional aprove uma legislação específica sobre o tema.
Para a região de Cotia e Grande São Paulo, onde cresce a atuação de produtores de conteúdo, pequenos influenciadores e empresas que utilizam redes para publicidade, a decisão traz impactos diretos na forma como conteúdos serão monitorados e denunciados.
A medida é vista por especialistas como um avanço na proteção dos direitos fundamentais e no combate à desinformação, mas também levanta debates sobre os limites da liberdade de expressão e o risco de moderação excessiva por parte das plataformas.
(Da redação. © Marcello Casal Jr/Agência Brasil – Logomarcas de plataformas digitais e big techs Pixabay/Wikimedia)
GOVERNO ALERTA PARA GOLPE DE APLICATIVO FALSO QUE PROMETE REEMBOLSO DO INSS
13 de março de 2026
More News
-
RENAULT PREPARA SUV PARA RIVALIZAR COM FIAT PULSE E VW NIVUS
30 de março de 2022 -
CONDENADOS POR JÚRI DEVEM SER PRESOS IMEDIATAMENTE
13 de setembro de 2024 -
PREFEITURA NÃO TERÁ EXPEDIENTE DE 15 A 20 DE NOVEMBRO
14 de novembro de 2023





