STF MUDA REGRAS E RESPONSABILIZA REDES SOCIAIS POR POSTAGENS ILEGAIS NO BRASIL

Nova interpretação do Marco Civil da Internet exige remoção de conteúdo criminoso após notificação extrajudicial; decisão tem efeito imediato, mas não retroativo
0
182

O Supremo Tribunal Federal (STF) aprovou, por 8 votos a 3, uma decisão histórica que altera o entendimento sobre a responsabilidade das plataformas digitais no Brasil.

A partir de agora, redes sociais como Facebook, Instagram, TikTok, YouTube e X (ex-Twitter) poderão ser responsabilizadas diretamente por conteúdos ilegais postados por seus usuários, desde que notificadas extrajudicialmente e não tomem providências imediatas para remover o material.

A decisão, tomada na última quinta-feira (26), reinterpretou o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que há mais de uma década condicionava a responsabilização civil das plataformas a uma ordem judicial prévia. Com a nova diretriz, não será mais necessário esperar uma decisão judicial para que a plataforma sofra sanções, especialmente nos casos mais graves.

Crimes graves e conteúdos ilegais na mira

O STF definiu um rol de crimes considerados especialmente graves, em que a remoção imediata será obrigatória assim que a plataforma for notificada. Caso o conteúdo permaneça no ar, as redes poderão ser responsabilizadas por danos morais e materiais causados a terceiros.

Entre os conteúdos enquadrados na nova norma estão:

  • Atos antidemocráticos e crimes de terrorismo;
  • Incitação ao suicídio ou automutilação;
  • Discurso de ódio e discriminação por raça, etnia, religião, sexualidade ou identidade de gênero;
  • Crimes de violência contra a mulher;
  • Pornografia infantil e crimes contra crianças e adolescentes.

A decisão também obriga a remoção de replicações de postagens já declaradas ilegais pela Justiça, mesmo sem nova decisão judicial.

Casos com e sem notificação

Plataformas serão responsabilizadas sem necessidade de notificação prévia em duas situações específicas:

  • Quando houver anúncio ou impulsionamento pago de conteúdo ilegal;
  • No uso de bots ou redes artificiais para disseminar informações ilícitas.

No entanto, em casos de crimes contra a honra — como calúnia, difamação e injúria —, permanece a necessidade de decisão judicial para remoção, por se tratar de ofensas de caráter pessoal.

Serviços de mensagens privadas, como WhatsApp, Telegram e e-mail, continuam protegidos pelo princípio da inviolabilidade das comunicações, e seus provedores não poderão ser responsabilizados diretamente pelos conteúdos compartilhados nesses ambientes.

Transparência e autorregulação obrigatória

Outra mudança importante é a exigência de autorregulação pelas plataformas. Elas deverão:

  • Criar regras claras para o recebimento e resposta a notificações extrajudiciais;
  • Produzir relatórios anuais de transparência sobre moderação de conteúdo.

Além disso, o STF determinou que as empresas mantenham representação jurídica no Brasil, com responsabilidade para atender às ordens da Justiça e fornecer dados quando solicitados por autoridades.

Impacto imediato e validade da decisão

A nova interpretação do STF tem efeito imediato, mas não retroativo. Ou seja, só valerá para conteúdos e casos a partir da decisão. Ela permanece em vigor até que o Congresso Nacional aprove uma legislação específica sobre o tema.

Para a região de Cotia e Grande São Paulo, onde cresce a atuação de produtores de conteúdo, pequenos influenciadores e empresas que utilizam redes para publicidade, a decisão traz impactos diretos na forma como conteúdos serão monitorados e denunciados.

A medida é vista por especialistas como um avanço na proteção dos direitos fundamentais e no combate à desinformação, mas também levanta debates sobre os limites da liberdade de expressão e o risco de moderação excessiva por parte das plataformas.

(Da redação. © Joédson Alves/Agência Brasil – Logomarcas de plataformas digitais e big techs Pixabay/Wikimedia)

Nova interpretação do Marco Civil da Internet exige remoção de conteúdo criminoso após notificação extrajudicial; decisão tem efeito imediato, mas não retroativo

O Supremo Tribunal Federal (STF) aprovou, por 8 votos a 3, uma decisão histórica que altera o entendimento sobre a responsabilidade das plataformas digitais no Brasil.

A partir de agora, redes sociais como Facebook, Instagram, TikTok, YouTube e X (ex-Twitter) poderão ser responsabilizadas diretamente por conteúdos ilegais postados por seus usuários, desde que notificadas extrajudicialmente e não tomem providências imediatas para remover o material.

A decisão, tomada na última quinta-feira (26), reinterpretou o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que há mais de uma década condicionava a responsabilização civil das plataformas a uma ordem judicial prévia. Com a nova diretriz, não será mais necessário esperar uma decisão judicial para que a plataforma sofra sanções, especialmente nos casos mais graves.

Crimes graves e conteúdos ilegais na mira

O STF definiu um rol de crimes considerados especialmente graves, em que a remoção imediata será obrigatória assim que a plataforma for notificada. Caso o conteúdo permaneça no ar, as redes poderão ser responsabilizadas por danos morais e materiais causados a terceiros.

Entre os conteúdos enquadrados na nova norma estão:

  • Atos antidemocráticos e crimes de terrorismo;
  • Incitação ao suicídio ou automutilação;
  • Discurso de ódio e discriminação por raça, etnia, religião, sexualidade ou identidade de gênero;
  • Crimes de violência contra a mulher;
  • Pornografia infantil e crimes contra crianças e adolescentes.

A decisão também obriga a remoção de replicações de postagens já declaradas ilegais pela Justiça, mesmo sem nova decisão judicial.

Casos com e sem notificação

Plataformas serão responsabilizadas sem necessidade de notificação prévia em duas situações específicas:

  • Quando houver anúncio ou impulsionamento pago de conteúdo ilegal;
  • No uso de bots ou redes artificiais para disseminar informações ilícitas.

No entanto, em casos de crimes contra a honra — como calúnia, difamação e injúria —, permanece a necessidade de decisão judicial para remoção, por se tratar de ofensas de caráter pessoal.

Serviços de mensagens privadas, como WhatsApp, Telegram e e-mail, continuam protegidos pelo princípio da inviolabilidade das comunicações, e seus provedores não poderão ser responsabilizados diretamente pelos conteúdos compartilhados nesses ambientes.

Transparência e autorregulação obrigatória

Outra mudança importante é a exigência de autorregulação pelas plataformas. Elas deverão:

  • Criar regras claras para o recebimento e resposta a notificações extrajudiciais;
  • Produzir relatórios anuais de transparência sobre moderação de conteúdo.

Além disso, o STF determinou que as empresas mantenham representação jurídica no Brasil, com responsabilidade para atender às ordens da Justiça e fornecer dados quando solicitados por autoridades.

Impacto imediato e validade da decisão

A nova interpretação do STF tem efeito imediato, mas não retroativo. Ou seja, só valerá para conteúdos e casos a partir da decisão. Ela permanece em vigor até que o Congresso Nacional aprove uma legislação específica sobre o tema.

Para a região de Cotia e Grande São Paulo, onde cresce a atuação de produtores de conteúdo, pequenos influenciadores e empresas que utilizam redes para publicidade, a decisão traz impactos diretos na forma como conteúdos serão monitorados e denunciados.

A medida é vista por especialistas como um avanço na proteção dos direitos fundamentais e no combate à desinformação, mas também levanta debates sobre os limites da liberdade de expressão e o risco de moderação excessiva por parte das plataformas.

(Da redação. © Marcello Casal Jr/Agência Brasil – Logomarcas de plataformas digitais e big techs Pixabay/Wikimedia)