Google cria conselho externo para monitorar uso de inteligência artificial pela empresa
Conselho Consultivo Externo de Tecnologia Avançada ficará de olho para identificar qualquer violação dos princípios éticos estabelecidos pela empresa no ano passado
O Google anunciou um novo conselho externo para ajudar a monitorar o uso de inteligência artificial pela empresa. A ideia é que o conselho fique de olho nos projetos do Google e identifique qualquer violação dos princípios éticos estabelecidos pela empresa no ano passado.
O projeto foi anunciado por Kent Walker, vice-presidente sênior de assuntos globais do Google, e inclui especialistas em uma ampla variedade de assuntos, incluindo matemática, ciência da computação, engenharia, filosofia, políticas públicas, psicologia e até política externa. Todos os membros da equipe apresentam currículos com projetos importantes em universidades de alto nível como a Universidade de Oxford, Universidade de Ciência e Tecnologia de Hong Kong e a UC Berkeley.
O grupo leva o nome de Conselho Consultivo Externo de Tecnologia Avançada, e o Google quer mesmo que ele seja visto como um tipo de vigilância independente, de olho em como a empresa implementa IA no mundo, com foco no reconhecimento facial e no controle dos métodos de treinamento em aprendizado de máquina.
No ano passado, o Google se envolveu em controvérsia sobre sua participação em um programa de drones do Departamento de Defesa dos Estados Unidos, o Project Maven. Após uma grande reação interna e críticas externas por colocar funcionários para trabalhar em projetos de IA que podem envolver conflitos armados, o Google decidiu encerrar seu envolvimento com o Maven após o término do contrato inicial.
A empresa também montou um novo conjunto de diretrizes, que o CEO Sundar Pichai apelidou de Princípios da IA do Google, que proibiria a empresa de trabalhar em qualquer produto ou tecnologia que viole “normas internacionalmente aceitas” ou “princípios amplamente aceitos de direito internacional e direitos humanos”.