Em 24 horas, Facebook remove 1,5 milhões de vídeos dos ataques na Nova Zelândia
Segundo porta-voz da plataforma, 1,2 milhões desses vídeos foram bloqueados já no momento do upload
Na última sexta-feira, 15/03, a Nova Zelândia sofreu uma série de ataques a mesquitas na cidade de Christchurch, e que foram transmitidos ao vivo pelo atirador no Facebook e no YouTube. Assim que avisadas pela polícia local, as plataformas retiraram os vídeos do ar, mas passaram a enfrentar uma avalanche do conteúdo replicando cenas dos ataques.
Em comunicado oficial, a porta-voz do Facebook, Mia Garlick, afirma que só nas primeiras 24 horas após o tiroteio, a plataforma removeu 1,5 milhões de vídeos sobre os ataques. Desses, 1,2 milhões foram bloqueados já no momento do upload.
Ainda segundo a porta-voz, a empresa também está “removendo todas as versões editadas do vídeo que não mostram conteúdo gráfico”.
O esforço mostra que, apesar da dificuldade, o Facebook (assim como outras plataformas) tem cumprido a promessa de eliminar esses conteúdos que ferem sua política. Twitter e YouTube seguem a mesma linha, e o Reddit baniu um subreddit chamado r / watchpeopledie.
Ao mesmo tempo, os números demonstram o enorme desafio que as redes sociais têm em relação à moderação desses conteúdos. Os esforços para ampliar a capacidade de monitorar e remover materiais ofensivos, ilegais ou perturbadores envolvem, inclusive, o trabalho de equipes terceirizadas para dar conta do volume de conteúdos assim.