Estudo mostra que detectores de deepfake ainda podem ser enganados
De acordo com os cientistas, inspeção dos detectores pode ser burlada inserindo imagens manipuladas que podem fazer com que os sistemas de IA cometam erros
Nem sempre os detectores conseguem identificar conteúdos manipulados por deepfake. Esse é o alerta feito por um grupo de cientistas da computação da Universidade da Califórnia em San Diego, que mostrou como as ferramentas de detecção podem ser enganadas.
De acordo com o estudo, a maioria dos detectores funcionam rastreando rostos em vídeos e enviando dados recortados dos rostos para uma rede neural. Com isso, o sistema detector pode, então, determinar se um vídeo é autêntico ou não, a partir da observação de elementos que não são bem reproduzidos em deepfakes, como expressões faciais, o movimento dos lábios e até mesmo piscadas.
Só que essa inspeção dos detectores pode ser burlada inserindo entradas, chamadas de “exemplos adversários”, em cada quadro de vídeo. Esses exemplos adversários são imagens manipuladas que podem fazer com que os sistemas de IA cometam erros.
“Para usar esses detectores de deepfake na prática, argumentamos que é essencial avaliá-los contra um adversário adaptável que está ciente dessas defesas e está intencionalmente tentando frustrar essas defesas. Mostramos que os métodos atuais de última geração para detecção de deepfake podem ser facilmente contornados se o adversário tiver conhecimento completo ou mesmo parcial do detector.”, disse o grupo de cientistas durante o evento virtual WACV 2021.
Ainda de acordo com o estudo, os cientistas recomendam o uso de um treinamento de adversário, em que um adversário adaptável continua gerando deepfakes que podem ignorar o detector enquanto ele está sendo treinado. Assim, o detector pode continuar a melhorar sua identificação de imagens manipuladas.