Facebook derruba rede de fake news ligada ao MBL
O canal britânico Channel 4 colocou um repórter disfarçado para trabalhar durante sete semanas na CPL Resources. Ela é uma das terceirizadas que moderam conteúdo para o Facebook, e presta serviços para a rede social desde 2010.
Vídeo de abuso infantil é denunciado, mas não removido
Ele descobriu que um vídeo de um menino sendo espancado e pisado continua no Facebook, apenas com o aviso de que é “perturbador”. O conteúdo foi denunciado em 2012 por Nicci Astin, que faz campanha online contra abuso infantil. Na época, a rede social disse que isso não violava seus termos de uso. O vice-presidente de política global do Facebook, Richard Allen, diz: “isso não deveria estar lá, o material deveria ter sido retirado”. No entanto, o Business Insider ainda conseguiu encontrar uma versão do vídeo na plataforma. Outro exemplo é um meme racista de uma menina sendo afogada em uma banheira, com a legenda: “quando o primeiro crush da sua filha é um menino preto”. Os moderadores têm três opções para revisar os posts: ignorar, excluir, ou marcar como perturbador. Nesse caso, eles são instruídos a ignorar, porque “para justificar uma violação real, você tem que passar por muitos obstáculos”.
Facebook have removed the content since Channel 4’s revelations.Warning: distressing content. pic.twitter.com/riVka6LcPS — Channel 4 Dispatches (@C4Dispatches) July 17, 2018 Além disso, algumas páginas permanecem no ar mesmo quando violam repetidamente os termos do Facebook. Páginas de grupos de extrema direita, como Britain First e English Defence League, enviaram mais de 5 posts com violações de conteúdo, mas não foram removidas porque tinham muitos seguidores.
Conteúdo extremo para atrair usuários
Não é surpresa que o Facebook deixe passar conteúdo questionável. Roger McNamee, um de seus primeiros investidores, acredita que isso é proposital. “É o conteúdo realmente extremo e perigoso que atrai as pessoas mais engajadas na plataforma”, ele diz ao Channel 4. “O Facebook entendeu ser desejável que as pessoas passem mais tempo no site porque seu negócio é baseado em publicidade.” Além disso, “o Facebook aprendeu que as pessoas nos extremos são realmente valiosas, porque elas podem frequentemente provocar 50 ou 100 outras pessoas”, explica McNamee. E um membro da CPL Resources diz ao repórter disfarçado que, “se você começa a censurar demais, as pessoas perdem o interesse na plataforma”. Allan, do Facebook, discorda: “conteúdo chocante não nos rende mais dinheiro — isso é apenas um mal-entendido de como o sistema funciona… a vasta maioria dos 2 bilhões de usuários nunca sonharia em compartilhar conteúdo assim, para chocar e ofender pessoas”. O Facebook diz à BBC que os funcionários da CPL foram “retreinados”, e o mesmo vai acontecer com outros moderadores ao redor do mundo. A empresa repete a promessa de aumentar a equipe de moderação — própria e terceirizada — para 20 mil pessoas até o final do ano. Atualmente, isso está em 15 mil. Com informações: Mashable.