Un nuevo cortometraje advierte de los riesgos que se avecinan con el desarrollo y la proliferación de armas autónomas letales.
Por qué es importante: Los drones con capacidad para apuntar y matar de forma autónoma sin la ayuda de un operador humano ya se están utilizando en los campos de batalla, y se está agotando el tiempo para elaborar una prohibición mundial de lo que podría ser una nueva clase de arma desestabilizadora y aterradora.
Lo que está ocurriendo: El Instituto del Futuro de la Vida (FLI), una organización sin ánimo de lucro centrada en los riesgos existenciales de la tecnología, ha publicado hoy «If Human: Kill ( )», un vídeo que describe cómo podría ser el futuro si no se regulan las armas autónomas letales.
En una palabra: horroroso. La película empalma clips de noticias ficticias para mostrar drones y robots armados con armas automáticas que utilizan el reconocimiento facial para identificar y matar a manifestantes políticos y policías, ayudar a robar bancos y asesinar a científicos.
Retroceso: La nueva película es una secuela de un video de 2017 de FLI que dio un nombre a estas armas autónomas: «slaughterbots».
Mientras que muchas de las preocupaciones sobre las armas autónomas se centran en la posibilidad de que puedan turboalimentar la guerra entre los estados, o incluso volverse rebeldes al estilo «Terminator», los videos de FLI imaginan un futuro en el que las armas de IA caen en manos de criminales y terroristas que pueden usarlas para causar estragos.
En lugar de Skynet, piense en un AK-47 autocontrolado y autodirigido, un arma que ya ha matado a millones de personas en todo el mundo.
Lo que dicen: «Las armas que retratamos en la película van a ser utilizadas principalmente por civiles contra civiles», dice Max Tegmark, cofundador de FLI e investigador de IA en el MIT. «Y esto me preocupa precisamente porque son tan pequeñas y baratas que pueden proliferar».
Lo que hay que ver: A finales de este mes, una conferencia de la ONU en Ginebra debatirá si se crea un nuevo tratado internacional que prohíba los sistemas de armas que puedan seleccionar y atacar objetivos sin un «control humano significativo», como han pedido grupos como FLI y el Comité Internacional de la Cruz Roja.
La conclusión: «Las superpotencias deberían darse cuenta de que no les interesa permitir armas de destrucción masiva con IA que todo el mundo podría comprar», dice Tegmark.
–
–
FUENTE