Por primera vez un dron con I.A. es capaz de “cazar” personas de manera autónoma

Un dron autónomo podría haber cazado y atacado a seres humanos sin la intervención de comandantes humanos, según ha revelado un reciente informe de la ONU.

Además de ser la primera vez que se produce un ataque de este tipo por parte de la inteligencia artificial (IA) contra humanos, no está claro si el dron pudo haber matado a personas durante el ataque que tuvo lugar en Libia en marzo de 2020.

El informe al Consejo de Seguridad de la ONU afirma que el 27 de marzo de 2020, el primer ministro libio Fayez al-Sarraj ordenó la “Operación TORMENTA DE PAZ”, en la que se utilizaron vehículos aéreos de combate no tripulados (UCAV) contra las fuerzas afiliadas a Haftar. Los drones se han utilizado en combate durante años, pero lo que hizo que este ataque fuera diferente es que operaron sin intervención humana, después de que se produjera el ataque inicial con otros apoyos.

“Los convoyes logísticos y las HAF en retirada fueron posteriormente cazados y atacados a distancia por los vehículos aéreos de combate no tripulados o los sistemas de armas autónomas letales como el STM Kargu-2 (véase el anexo 30) y otras municiones de merodeo”, según el informe.

“Los sistemas de armas autónomas letales fueron programados para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de ‘disparar, olvidar y encontrar'”.

El KARGU es un dron de ataque de ala rotatoria diseñado para la guerra asimétrica o las operaciones antiterroristas, que según los fabricantes “puede utilizarse eficazmente contra objetivos estáticos o en movimiento gracias a sus capacidades de procesamiento de imágenes en tiempo real y a los algoritmos de aprendizaje automático integrados en la plataforma.” Un vídeo de presentación del dron muestra cómo apunta a maniquíes en un campo, antes de lanzarse sobre ellos y detonar una carga explosiva.

Contra objetivos humanos, los drones demostraron su eficacia.

“Las unidades no estaban entrenadas ni motivadas para defenderse del uso efectivo de esta nueva tecnología y normalmente se retiraban en desorden”, dice el informe. “Una vez en retirada, estaban sometidos al acoso continuo de los vehículos aéreos de combate no tripulados y de los sistemas de armas autónomas letales, que estaban demostrando ser una combinación muy eficaz”.

El informe no entra en detalles sobre si hubo bajas o muertes relacionadas con el ataque, aunque señala que los aviones no tripulados fueron “altamente efectivos” al ayudar a infligir “bajas significativas” a los sistemas de misiles tierra-aire Pantsir S-1 del enemigo. Es perfectamente posible que el primer humano haya sido atacado o muerto por un dron operado por un algoritmo de aprendizaje automático.

El ataque, haya producido víctimas o no, no será bien recibido por los activistas contra el uso de “robots asesinos”.

“Existen serias dudas de que las armas totalmente autónomas sean capaces de cumplir con las normas del derecho internacional humanitario, incluidas las reglas de distinción, proporcionalidad y necesidad militar, al tiempo que amenazarían el derecho fundamental a la vida y el principio de la dignidad humana”, afirma Human Rights Watch. “Human Rights Watch pide una prohibición preventiva del desarrollo, la producción y el uso de armas totalmente autónomas”.

Entre otras preocupaciones, está el hecho de que los algoritmos de IA utilizados por los robots no sean lo suficientemente robustos, o bien que hayan sido entrenados en conjuntos de datos con fallos. Además de estar expuestos a errores (como un Tesla engañado para desviarse de la carretera), existen innumerables ejemplos de sesgos en la tecnología de aprendizaje automático, desde el reconocimiento facial que no reconoce los tonos de piel que no son blancos, hasta las cámaras que dicen a los asiáticos que dejen de parpadear, pasando por los dispensadores de jabón racistas que no te dan jabón si eres negro y los coches autoconducidos que tienen más probabilidades de atropellarte si no eres blanco.

Ahora, al parecer, pronto podríamos confiar decisiones de vida o muerte a una tecnología que podría estar expuesta a problemas similares.

FUENTE

https://www.iflscience.com/

 

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s