Novo estudo alerta para os perigos por trás dos avanços das inteligências artificiais
Assinado por 26 pesquisadores, documento pede por um aprofundamento da discussão ética em torno destas tecnologias

Já fazem alguns meses que a pesquisa com inteligências artificiais vem marcando presença na página de notícias do B9. Desde as intenções mais nobres como o auxílio médico em diagnósticos de pneumonia e problemas cardiovasculares a usos criativos como a fabricação de sons ambientes para o Google Maps (passando por algumas boas piadas), o campo de desenvolvimento destes programas cresceu consideravelmente estes tempos, alcançando todos os ramos do conhecimento e fazendo contribuições genuínas neles.
Os benefícios gerados por esta tecnologia, porém, podem estar ocultando malefícios muito piores do que os pesquisadores imaginam atualmente. Isto, pelo menos, é o que diz o “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, documento de quase cem páginas que aborda os possíveis usos danosos das IAs e suas consequências desastrosas para a sociedade contemporânea.
Publicado recentemente e assinado por 26 autores de catorze instituições diferentes, o artigo pede uma discussão urgente sobre o tema, indicando como programas de inteligência artificial podem por exemplo ser facilmente utilizados de forma criminal, substituindo agentes humanos por robôs em atentados terroristas e melhorando as chances destes eventos serem melhor sucedidos. O perigo maior do uso das IAs, porém, é que à partir do momento em que elas são construídas e funcionam elas podem ser replicadas e utilizadas repetidamente nestas funções, algo que aos mal-intencionados cai como uma luva.
Outro ponto levantado pelos pesquisadores é que as IAs podem intensificar problemas já existentes na sociedade, e um dos exemplos mais óbvios desta tendência está na fabricação de fake news. Aquele vídeo do Obama, porém, é só o começo destas ameaças, pois de acordo com o documento o avanço destes programas nos próximos cinco anos pode gerar novidades ainda mais nocivas, como manipulação política, propagandas e um estado total de vigilância social. Estas questões, a bem da verdade, já começaram a se manifestar nas redes sociais pelos deepfakes, os softwares de IA que colocam o rosto de uma pessoa no corpo de outra que empresas como o Twitter, o PornHub e o Reddit vem combatendo nos últimos tempos.
Considerado estes pontos, o artigo propõe algumas recomendações que talvez possam ajudar os pesquisadores da área a lidar com os problemas implícitos à tecnologia de seus estudos. Entre as sugestões, há o reconhecimento do perigo que seus trabalhos tem de serem conduzidos a meios maliciosos, o aprendizado de noções mínimas de cybersegurança para proteção dos projetos e a criação de novas políticas éticas no campo. A instituição de cursos voltados ao direcionamento de inteligências artificiais para o bem-estar social não é posto pelo artigo, mas já existe uma aula sobre o tema na Carnegie Mellon University em Washington.
A recomendação mais importante, entretanto, é o envolvimento de um número maior de pessoas no debate, desde a conscientização destes perigos para o público geral quanto a inclusão de empresários e estudiosos de ética na discussão, uma ação que só ajuda na prevenção de eventuais desastres gerados por estes programas e alimenta um maior aprofundamento teórico do tema. No fundo, esta discussão envolve aquele famoso discurso dado pelo personagem de Jeff Goldblum no primeiro “Jurassic Park” – só que ao invés de dinossauros, o que se tem são as inteligências artificiais.
https://www.youtube.com/watch?v=mRNX6XJOeGU
Se você se interessou pelo conteúdo do artigo, você pode baixá-lo e lê-lo na íntegra (em inglês) aqui.