Quando Mark Zuckerberg anunciou que a Meta iria eliminar a verificação profissional de fatos nos EUA, uma grande perturbação na Força foi sentida, como se milhões de vozes de verificadores de repente clamassem em terror e fossem subitamente silenciadas.
A empresa aposta num modelo parecido com o Community Notes da X (ex-Twitter), onde usuários adicionam contexto às postagens. A mudança, segundo Zuck, torna a moderação mais “democrática” e remove regras impostas pela administração anterior. Mas especialistas alertam: sem supervisão adequada, fake news e discursos de ódio podem se espalhar sem controle.
A experiência da X mostra que moderação comunitária tem limitações. Notas podem demorar a aparecer, viés político pode afetar avaliações e temas complexos podem passar despercebidos. Além disso, moderadores voluntários da Meta podem acabar expostos a conteúdos perturbadores sem o suporte adequado. O Facebook já foi criticado por falhas graves de moderação — de censura indevida a negligência em crises humanitárias, como o genocídio dos rohingya em Mianmar.
A decisão da Meta não vem isolada: regras contra discurso de ódio também estão sendo flexibilizadas, enfraquecendo ainda mais a segurança na plataforma. A dúvida não é se a desinformação aumentará, mas o quão rápido e em que escala.
Você acabou de acompanhar uma nota rápida by The BRIEF! Siga mais informações clicando aqui
More Stories
Chespirito, série do Chaves da Max, esconde polêmica de bastidores! Entenda
Jogador deixa PS5 com cara de PS2 e resultado impressiona! Veja como ficou
SpaceX Starship perde o controle inesperadamente, mas alcança órbita terrestre