Meta desenvolve ferramentas com ONGs para impedir a circulação de imagens explícitas indesejadas
O objetivo é evitar situações chamadas "pornografia de vingança", muito comum nas redes sociais
A Meta, antigo Facebook, se uniu a uma organização sem fins lucrativos do Reino Unido para criar uma ferramenta em que os usuários possam criar hashes (ou identificadores exclusivos) de imagens explícitas indesejadas ou não consensuais para um banco de dados.
Com isso, plataformas como Facebook e Instagram podem detectar se as imagens específicas foram compartilhadas e removê-las quando possível. Chamada de StopNCII, a ferramenta será aberta a usuários maiores de 18 anos que suspeitem que imagens nuas deles possam ter sido enviadas para as redes sociais da Meta sem consentimento – ou seja, a famosa “pornografia de vingança”.
Segundo o site Design Taxi, em 2017, o Facebook já havia proposto uma iniciativa para impedir a circulação desse tipo de conteúdo, mas o sistema atraiu críticas do público. Isso porque ele foi configurado para que, primeiro, os usuários enviassem imagens sexualmente explícitas de si mesmos ao Messenger, só então seria verificado se elas foram compartilhadas sem consentimento. Óbvio que muitos não se sentiam confortáveis com a ideia de confiar a uma rede as mesmas fotos que estavam tentando remover.
Dessa vez, a ferramenta será operada pela UK Revenge Porn Helpline, em vez da Meta, e permitirá que os usuários criem hashes diretamente de seus próprios dispositivos, em vez de solicitar que as imagens sejam carregadas em outro servidor.