Facebook, Instagram e Twitter limitam acesso a dados de startup que usa IA para verificar antecedentes de babás
Empresa californiana utiliza software para criar perfis com relatórios sobre as profissionais de cuidados de crianças
Na semana passada, o The Washington Post fez um relatório destrinchando sobre a Predictim, startup californiana que utiliza inteligência artificial para avaliar e ranquear babás. O modus operandi da empresa não foi bem recebido e, como resultado, algumas redes sociais decidiram tomar medidas que afetarão diretamente o serviço da Predictim. O Facebook, o Instagram e o Twitter entraram com uma ação e limitaram o acesso da startup aos dados dos usuários dessas plataformas.
Enquanto as redes pertencentes à Mark Zuckerberg limitaram drasticamente o acesso da Predictim aos dados dos usuários da plataforma, o Twitter revogou o acesso da startup a sua API (que é usada para acessar dados em grande escala em vez de ler perfis individualmente). Como reportou o The Verge, um porta-voz do Twitter chegou a se manifestar, afirmando que o uso de dados da rede social e sua API para fins de vigilância é uma prática proibida.
A Predictim alega usar “inteligência artificial avançada” para avaliar a capacitação de uma babá. Isso inclui vasculhar os históricos nas redes sociais de uma pessoa antes de oferecer uma avaliação final automatizada. A empresa afirma que pode prever se o indivíduo é um usuário de drogas, se pode intimidar ou assediar outras pessoas, e até mesmo se elas têm uma tendência a fazer “coisas ruins”.
O diretor executivo e co-fundador da Predictim, Sal Parsa, disse que a empresa não fez nada de errado. “Todo mundo verifica o passado das pessoas nas mídias sociais, elas procuram pessoas no Google“, disse Parsa à BBC News; “Estamos apenas automatizando esse processo”.
Nos últimos anos, mais e mais empresas estão criando sistemas que utilizam inteligência artificial para rastrear o histórico das pessoas nas mídias. Especialistas temem que entregar decisões cruciais a algoritmos seja imprudente, enquanto empresas que vendem esses serviços dizem que uma abordagem em nível de máquina é mais detalhada e imparcial. O problema é que algoritmos não podem interpretar e contextualizar algumas mensagens, fazendo com que boa parte dos conteúdos das redes sociais estejam suscetíveis a interpretações automaticamente equivocadas.