
Fuentes de inteligencia israelíes revelan el uso del sistema ‘Lavender’ en la guerra de Gaza y afirman que se les dio permiso para matar civiles en persecución de militantes de bajo rango.
La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por IA no revelada anteriormente que en un momento identificó 37.000 objetivos potenciales en función de sus aparentes vínculos con Hamas, según fuentes de inteligencia involucradas en la guerra.
Además de hablar sobre el uso del sistema de inteligencia artificial, llamado Lavender, las fuentes de inteligencia afirman que los oficiales militares israelíes permitieron que un gran número de civiles palestinos murieran, particularmente durante las primeras semanas y meses del conflicto .
Su testimonio inusualmente sincero ofrece una rara visión de las experiencias de primera mano de los funcionarios de inteligencia israelíes que han estado utilizando sistemas de aprendizaje automático para ayudar a identificar objetivos durante la guerra de seis meses.
El uso por parte de Israel de potentes sistemas de inteligencia artificial en su guerra contra Hamas ha entrado en territorio inexplorado para la guerra avanzada, planteando una serie de cuestiones legales y morales y transformando la relación entre el personal militar y las máquinas.
“Esto no tiene paralelo, en mi memoria”, dijo un oficial de inteligencia que usó Lavender, y agregó que tenían más fe en un “mecanismo estadístico” que en un soldado afligido. “Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo hizo más fácil”.
Otro usuario de Lavender cuestionó si el papel de los humanos en el proceso de selección era significativo. “En esta etapa, invertiría 20 segundos en cada objetivo y haría docenas de ellos cada día. No tenía ningún valor agregado como ser humano, aparte de ser un sello de aprobación. Ahorró mucho tiempo”.
Niños palestinos entre escombros con artículos en un carrito
Niños palestinos rescatan artículos en medio de la destrucción causada por los bombardeos israelíes en Bureij, en el centro de Gaza, el 14 de marzo. Fotografía: AFP/Getty Images
El testimonio de los seis oficiales de inteligencia, todos ellos involucrados en el uso de sistemas de inteligencia artificial para identificar objetivos de Hamás y de la Jihad Islámica Palestina (JIP) en la guerra, fue entregado al periodista Yuval Abraham para un informe publicado por la publicación israelí-palestina + Revista 972 y el medio en hebreo Local Call .

Sus cuentas se compartieron exclusivamente con The Guardian antes de su publicación. Los seis dijeron que Lavender había desempeñado un papel central en la guerra, procesando grandes cantidades de datos para identificar rápidamente a posibles agentes «jóvenes» a los que atacar. Cuatro de las fuentes dijeron que, en una etapa temprana de la guerra, Lavender enumeró hasta 37.000 hombres palestinos que habían sido vinculados por el sistema de inteligencia artificial con Hamás o la Jihad Islámica.
Lavender fue desarrollado por la división de inteligencia de élite de las Fuerzas de Defensa de Israel, la Unidad 8200, que es comparable a la Agencia de Seguridad Nacional de EE. UU. o GCHQ en el Reino Unido.
Varias de las fuentes describieron cómo, para ciertas categorías de objetivos, las FDI aplicaron asignaciones preautorizadas para el número estimado de civiles que podrían morir antes de que se autorizara un ataque.
Dos fuentes dijeron que durante las primeras semanas de la guerra se les permitió matar a 15 o 20 civiles durante ataques aéreos contra militantes de bajo rango. Los ataques contra esos objetivos se llevaban a cabo normalmente utilizando municiones no guiadas conocidas como “bombas tontas”, dijeron las fuentes, destruyendo casas enteras y matando a todos sus ocupantes.
–
FUENTE Y LEER COMPLETO EN