Investigações mostram que WhatsApp está cheio de pornografia infantil
Relatório mostra que grupos que compartilham pornografia infantil nem disfarçam os nomes na plataforma e são facilmente encontrados por aplicativos paralelos
Depois de conferir um relatório de duas ONGs israelenses que apontam uma grande quantidade de grupos no WhatsApp exclusivos para o compartilhamento de pornografia infantil, o site TechCrunch vasculhou alguns desses grupos que ainda aparecem ativos e compartilhando o material ilegal.
As descobertas das ONGs Screen Savers e Netivei Reshe foram reveladas hoje (21), mas a investigação começou em julho deste ano, depois que um homem ligou para uma das ONGs dizendo ter visto pornografia pesada no WhatsApp. Até outubro, as instituições catalogaram mais de 10 grupos de pornografia infantil, seu conteúdo e os aplicativos que permitem que as pessoas os encontrem.
As ONGs também entraram em contato com a chefe de política do Facebook, Jordana Cutler, a partir de 4 de setembro, solicitando uma reunião para discutir as descobertas. Cutler pediu provas por e-mail, mas não concordou com uma reunião. As ONGs optaram por relatar as descobertas à polícia israelense, mas se recusaram a fornecer suas pesquisas ao Facebook apenas por e-mail. Assim, o WhatsApp só soube do relatório hoje.
Segundo o TechCrunch, muitos desses grupos nem tentam esconder sua intenção, apresentando nomes como “child porn only no adv” e “child porn xvideos” (“pornografia infantil somente sem anúncios” e “pornôs infantis
xvideos”, respectivamente). Outros usam abreviações ou emojis, mas também deixando claro se tratar de grupos sobre pornografia infantil.
Encontrar esses grupos também não é difícil. A maioria deles está listada em aplicativos de descobertas de grupos, como o Group Links for WhatsApp (que agora foi retirado do ar pelo Google Play).
A startup chamada AntiToxin Technologies, que pesquisa o assunto e fez o backup do relatório, diz ter identificado mais de 1.300 vídeos e fotografias de menores envolvidos em atos sexuais em grupos do WhatsApp.
A moderação do WhatsApp
Em 2018, o Facebook dobrou sua equipe de moderação de 10 mil para 20 mil funcionários, a fim de reprimir interferências eleitorais, bullying e outras violações de suas políticas. Mas essa equipe não tem acesso ao conteúdo do WhatsApp, que conta com apenas 300 funcionários executando o monitoramento. Atualmente, o app tem mais de 1,5 bilhão de usuários.
Em comunicado feito ao TechCrunch, um porta-voz do Facebook disse: “Manter as pessoas seguras no Facebook é fundamental para o trabalho de nossas equipes em todo o mundo. Nós nos oferecemos para trabalhar em conjunto com a polícia de Israel para iniciar uma investigação para acabar com esse abuso.”
Já um porta-voz do aplicativo diz que, embora a pornografia adulta legal seja permitida no WhatsApp, a plataforma baniu 130 mil contas em um período recente de 10 dias por violar suas políticas contra a exploração infantil. Em uma declaração, o WhatsApp escreveu que:
“O WhatsApp tem uma política de tolerância zero em relação ao abuso sexual infantil. Implementamos nossa tecnologia mais avançada, incluindo inteligência artificial, para escanear fotos e imagens de perfil em conteúdo denunciado e banir ativamente contas suspeitas de compartilhar esse conteúdo vil. Também respondemos aos pedidos de aplicação da lei em todo o mundo e denunciamos imediatamente os abusos ao National Center for Missing and Exploited Children. Infelizmente, como as lojas de aplicativos e os serviços de comunicação estão sendo usados para difundir conteúdo abusivo, as empresas de tecnologia devem trabalhar juntas para pará-lo.”
O WhatsApp introduziu um recurso de link de convite para grupos no final de 2016, tornando muito mais fácil descobrir e participar de grupos mesmo sem conhecer nenhum membro. Concorrentes como o Telegram se beneficiaram do mesmo recurso, aumentado o engajamento em seus bate-papos públicos.
O WhatsApp provavelmente viu nesses links de convite de grupo uma oportunidade de crescimento, mas não aplicou recursos suficientes para monitorar esses grupos de centenas de desconhecidos reunidos em torno um tópico em comum.
Ainda segundo o porta-voz do WhatsApp, a empresa analisa todas as informações não criptografadas de sua rede, ou seja, qualquer coisa fora das linhas de bate-papo, mas que são relacionadas à plataforma, incluindo fotos de perfil de usuário, fotos de perfil de grupos e informações de grupos. Com isso, a empresa procura combinar o conteúdo encontrado com bancos de fotos de pornografia infantil. Se encontrar uma correspondência, essa conta, ou esse grupo e todos os seus membros, serão banidos do aplicativo.
Se as imagens não corresponderem ao banco de dados, mas forem suspeitas de exibir exploração infantil, elas serão revisadas manualmente. Se for considerado ilegal, o WhatsApp bane as contas e os grupos, e reporta o conteúdo e as contas ao National Center for Missing and Exploited Children. O único exemplo desse monitoramento dado pelo WhatsApp foi o de um grupo banido que possuía 256 membros.
Mas a questão mais importante é que, se o WhatsApp já estava ciente desses aplicativos de descoberta de grupos, por que eles não usaram a ferramenta para rastrear grupos que violam suas políticas? A situação também levanta questões sobre a criptografia, já que alguns governos, como a Austrália, tentam impedir seu uso por aplicativos de mensagens. A tecnologia pode proteger a liberdade de expressão, melhorar a segurança e impedir a censura de governos e plataformas tecnológicas. No entanto, também pode dificultar a identificação de crimes como a pornografia infantil.
Por enquanto, o WhatsApp precisa rever a forma como modera o aplicativo. Com o Facebook ganhando bilhões em lucro por trimestre e criando seus próprios níveis de moderação, não há razão para que a suposta autonomia do WhatsApp evite que ele aplique recursos adequados à questão, como contratando uma equipe de moderadores tão grande quanto a do Facebook.