Slaughterbots: cortometraje distópico sobre la proliferación de las armas autónomas letales

Un nuevo cortometraje advierte de los riesgos que se avecinan con el desarrollo y la proliferación de armas autónomas letales.

Por qué es importante: Los drones con capacidad para apuntar y matar de forma autónoma sin la ayuda de un operador humano ya se están utilizando en los campos de batalla, y se está agotando el tiempo para elaborar una prohibición mundial de lo que podría ser una nueva clase de arma desestabilizadora y aterradora.

Lo que está ocurriendo: El Instituto del Futuro de la Vida (FLI), una organización sin ánimo de lucro centrada en los riesgos existenciales de la tecnología, ha publicado hoy «If Human: Kill ( )», un vídeo que describe cómo podría ser el futuro si no se regulan las armas autónomas letales.

En una palabra: horroroso. La película empalma clips de noticias ficticias para mostrar drones y robots armados con armas automáticas que utilizan el reconocimiento facial para identificar y matar a manifestantes políticos y policías, ayudar a robar bancos y asesinar a científicos.

Retroceso: La nueva película es una secuela de un video de 2017 de FLI que dio un nombre a estas armas autónomas: «slaughterbots».

Mientras que muchas de las preocupaciones sobre las armas autónomas se centran en la posibilidad de que puedan turboalimentar la guerra entre los estados, o incluso volverse rebeldes al estilo «Terminator», los videos de FLI imaginan un futuro en el que las armas de IA caen en manos de criminales y terroristas que pueden usarlas para causar estragos.
En lugar de Skynet, piense en un AK-47 autocontrolado y autodirigido, un arma que ya ha matado a millones de personas en todo el mundo.

Lo que dicen: «Las armas que retratamos en la película van a ser utilizadas principalmente por civiles contra civiles», dice Max Tegmark, cofundador de FLI e investigador de IA en el MIT. «Y esto me preocupa precisamente porque son tan pequeñas y baratas que pueden proliferar».

Lo que hay que ver: A finales de este mes, una conferencia de la ONU en Ginebra debatirá si se crea un nuevo tratado internacional que prohíba los sistemas de armas que puedan seleccionar y atacar objetivos sin un «control humano significativo», como han pedido grupos como FLI y el Comité Internacional de la Cruz Roja.

La conclusión: «Las superpotencias deberían darse cuenta de que no les interesa permitir armas de destrucción masiva con IA que todo el mundo podría comprar», dice Tegmark.

FUENTE

https://www.axios.com/

Deja una respuesta

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s