Facebook começa a usar inteligência artificial para organizar prioridades da moderação de conteúdo
Viralidade e gravidade do assunto são alguns dos critérios aplicados ao sistema para garantir que os moderadores avaliem os casos mais urgentes de forma rápida
O Facebook confirmou nesta sexta (13) ao The Verge que a partir de agora vai utilizar de inteligência artificial para organizar a lista de conteúdos alertados para a moderação da rede social. O novo sistema, que usa de machine learning para direcionar a avaliação do que deve ou não ser deletado da rede social, marca a conclusão de um longo processo de automatização do departamento, priorizando o uso de moderadores humanos para tomar todas as decisões finais relacionadas.
A inteligência artificial vai atuar de forma a permitir que os moderadores deixem de avaliar os casos de ordem cronológica e passem a trabalhar de acordo com sua importância. A meta é que uma espécie de amálgama de softwares garantam que a fila sempre escolha publicações de acordo com 3 critérios: seu potencial viral, o nível de preocupação envolvido e as chances do item ter violado as regras da comunidade.
De acordo com o Facebook, o objetivo é lidar primeiro com posts que possam impactar o mundo real, uma afirmação que pode envolver conteúdos relacionados a terrorismo, exploração de crianças ou suicídio. O uso da viralidade e gravidade do tema como parte da equação de prioridades busca trazer estes tópicos para o começo da fila, deixando para trás conteúdos mais “inocentes” como spam, por exemplo.
A supervisão humana ainda é parte crucial da moderação, porém. “O sistema é sobre casar IA e revisores humanos para cometer o menor número de erros possível. A inteligência artificial nunca vai ser perfeita” declara o engenheiro de programação da empresa Chris Palow, que garante que o sistema não funcionará sozinho na hora de decidir o que deve e não deve ser deletado da plataforma.
A novidade acompanha os sistemas de IA que a companhia já utiliza para detectar automaticamente publicações que possam estar ferindo as regras da comunidade do Facebook, além de facilitar o trabalho extenso dos mais de quinze mil moderadores que a rede social emprega (de maneira direta ou indireta) no controle do conteúdo veiculado.