China está reclutando a sus niños prodigios para desarrollar “bots de la muerte”
Un grupo de algunos de los estudiantes más inteligentes de China han sido reclutados directamente desde la escuela secundaria para comenzar su formación como los científicos más jóvenes del mundo en el desarrollo de armas basadas en inteligencia artificial (IA).
27 niños y cuatro niñas, todos menores de 18 años, fueron seleccionados para el “programa de prueba para sistemas de armas inteligentes” de cuatro años en el Instituto de Tecnología de Beijing (ITB) entre más de 5.000 candidatos, dijo la escuela en su sitio web.
El ITB es uno de los principales institutos de investigación de armas del país, y el lanzamiento del nuevo programa demuestra la importancia que atribuye al desarrollo de tecnología de inteligencia artificial para uso militar.
“Todos estos niños son excepcionalmente brillantes, pero serlo no es suficiente”, dijo un profesor del ITB que participó en el proceso de selección.
“Buscamos otras cualidades como el pensamiento creativo, la voluntad de luchar, la persistencia ante los desafíos”, dijo. “La pasión por desarrollar nuevas armas es imprescindible… y también deben ser patriotas”, agregó.
China compite con Estados Unidos y otros países para convertirse en líder mundial del desarrollo de aplicaciones mortales de IA, desde submarinos nucleares con chips de autoaprendizaje hasta robots microscópicos capaces de penetrar en los vasos sanguíneos de los seres humanos. La semana pasada, el gobierno de Donald Trump consideró necesario restringir las exportaciones de tecnología a un fabricante chino de semiconductores por motivos de seguridad nacional. ITB lanzó el programa en la sede de Norinco, uno de los mayores contratistas de defensa de China, el 28 de octubre. Luego de completar el curso de cuatro años, se espera que los estudiantes continúen su investigación a través de un programa de doctorado y se conviertan en los próximos líderes del programa de armas de IA de China, dijo el instituto.
Stuart Russell, director del Centro de Sistemas Inteligentes de la Universidad de California, Berkeley, describió el programa de ITB como “una pésima idea”. “A las máquinas nunca se les debe permitir decidir matar a los humanos. Esas armas se convierten rápidamente en armas de destrucción masiva. Además, aumentan la probabilidad de guerra”, dijo.
Texto y foto de Infobae.com