Tal.MDK Musk lleva mucho tiempo alimentado guerras mediante servicios satélitales e I.A.

Cuando hoy en día se habla de Elon Musk, mucha gente piensa en Teslas, lanzamientos de cohetes o algunos tuits confusos.

Sin embargo, de lo que el público en general apenas se da cuenta es de que Musk lleva mucho tiempo participando en la guerra mundial, no metafóricamente, sino en un sentido muy real.

Y no como político o general, sino como proveedor de infraestructuras. Con su red de satélites Starlink, se ha catapultado inadvertidamente a una posición clave que antes sólo estaba reservada a los Estados. Sin Starlink, el ejército ucraniano estaría en gran medida ciego digitalmente, aunque ni Estados Unidos ni la OTAN estén oficialmente implicados de forma directa.

En esencia, Starlink funciona como un sistema nervioso digital. Actualmente hay más de 5.500 satélites en órbita en todo el mundo, y la tendencia va en aumento. Musk quiere llegar a más de 40.000. Cada uno de estos satélites forma parte de una red que suministra Internet a las estaciones terrestres, independientemente de cables, servidores o infraestructuras nacionales de telecomunicaciones. Starlink se utiliza militarmente en Ucrania desde 2022. Inicialmente, la intención era estabilizar el sector civil. Sin embargo, hace tiempo que el sistema se utiliza para controlar drones, para la comunicación en tiempo real entre el frente y el mando y para coordinar ataques. Básicamente, Starlink es la columna vertebral de la guerra digital de Kiev. ¿Y Musk? Tiene el control de la red, tanto técnica como políticamente.

 

Sin embargo, la combinación de sistemas es aún más seria: Starlink proporciona la infraestructura digital, Optimus la plataforma física. Además, existen modelos de IA como el GPT-5 o los Large Language Models (LLM) militares especiales, que entrenan esquemas de toma de decisiones a partir de miles de escenarios y datos bélicos reales. Los volúmenes de datos que Musk quiere obtener con Optimus podrían utilizarse a su vez para entrenar otros modelos de IA. Y estos modelos podrían entonces -esto no es especulación, sino el estado actual de desarrollo- identificar objetivos, calcular análisis de riesgo y emitir propuestas operativas. En tiempo real. De forma autónoma.

 

No hay que ser paranoico para reconocer lo que está surgiendo aquí: una máquina militar digital que ya funciona por partes y cuya automatización total hace tiempo que se ha iniciado. No por los parlamentos o los generales, sino por los gigantes tecnológicos y los inversores.

 

Lo que antes sólo se mostraba en las ferias militares o se calculaba en los documentos del Pentágono, ahora se prueba en tiempo real en suelo ucraniano, a menudo en el más absoluto secreto. No sólo tanques, misiles y tecnología armamentística occidental llegan constantemente a la zona de guerra, sino también una nueva generación de sistemas automatizados: Drones, robots, módulos de defensa antiaérea, algunos equipados con algoritmos de aprendizaje, otros completamente autónomos.

En este contexto, «autónomo» no significa simplemente: sin control remoto. Significa que un sistema decide independientemente si algo es reconocido como objetivo, si hay peligro, si dispara o no.

No sólo los periodistas especializados y los analistas confirman que se utilizan precisamente estas tecnologías, sino ahora también los socios occidentales en materia de defensa. Ucrania se ha convertido desde hace tiempo en un campo de pruebas para la tecnología armamentística apoyada en IA. Lo que allí tiene éxito se exporta después, ya sea militar, económica o políticamente.

Un caso especialmente conocido es el del llamado «Saker Scout», un dron que fue diseñado en colaboración con desarrolladores británicos, entre otros, y que ahora está equipado con un módulo de IA que puede reconocer objetivos terrestres mediante aprendizaje profundo. El sistema analiza datos de infrarrojos e imágenes desde el aire, los compara con datos de entrenamiento de misiones anteriores y categoriza si se trata de una posición enemiga o no.

Una vez que un objeto ha sido catalogado como objetivo potencial, el dron puede marcarlo para su posterior destrucción mediante artillería, o atacarlo directamente si está equipado con explosivos. ¿Investigación humana? No necesariamente. Algunos sistemas funcionan en modo «disparar y olvidar»: se les da un área de búsqueda aproximada y el algoritmo se encarga del resto.

 

Los primeros sistemas autónomos también se están utilizando sobre el terreno. El Ministerio de Defensa británico confirmó la entrega a Ucrania de sistemas «SkyKnight», módulos móviles de defensa antiaérea con detección de objetivos asistida por inteligencia artificial, ya en 2024. El principio: un radar con sensores de 360° analiza la trayectoria de vuelo de los objetos entrantes, el software decide si se trata de un dron enemigo, un pájaro o uno de sus propios helicópteros y dispara en una fracción de segundo. Todo ello está vinculado a una red neuronal de toma de decisiones que ha sido entrenada con escenarios de combate simulados.

Tecnologías similares ya se han probado en Israel con el famoso dron «Harop», una «munición merodeadora» que puede sobrevolar una zona objetivo hasta 6 horas antes de abalanzarse sobre un blanco y destruirlo. Las empresas de defensa de Europa Occidental y Oriental trabajan ahora en conceptos similares. El control está cada vez más automatizado. Ya no es el ser humano quien decide cuándo comienza el ataque, sino el conjunto de datos de entrenamiento.

Otro ejemplo preocupante: los drones de termita, que se rellenan con metal inflamable y prenden fuego deliberadamente a las posiciones enemigas. Estos drones, algunos de los cuales están equipados con algoritmos de puntería autónomos, pueden paralizar trincheras enteras o líneas de suministro. La destrucción térmica cubre grandes áreas y es difícil de extinguir. No es precisa ni quirúrgica, pero sí psicológicamente brutal.

El apoyo científico a estos avances es limitado. Mientras que organizaciones como la Campaña para Detener a los Robots Asesinos o el Instituto UNIDIR (Instituto de las Naciones Unidas de Investigación sobre el Desarme) llevan años advirtiendo contra la guerra autónoma, los gobiernos operan en una zona gris, especialmente bajo la presión de los conflictos actuales. Por razones comprensibles, Ucrania apenas revela información sobre los sistemas utilizados. Los fabricantes invocan secretos comerciales. ¿Y los partidarios occidentales? Apenas hablan de ello, ni lo llaman «innovación».

En términos técnicos, gran parte se basa en la llamada edge computing, es decir, la potencia de cálculo que tiene lugar directamente en el dispositivo y ya no en un servidor central. Esto hace que los sistemas sean más rápidos y reactivos, pero también menos controlables. Un piloto automático en un coche es fácil de seguir. No lo es un algoritmo de inteligencia artificial en el chip de un dron FPV que explota en una trinchera a 300 kilómetros de la línea del frente.

Qué significa esto concretamente? Que la IA que pueda utilizarse con fines militares, como la selección de objetivos, el reconocimiento de patrones o el apoyo a la toma de decisiones, podrá desarrollarse en el futuro sin ninguna obligación de trazabilidad. Y esto no está ocurriendo en el vacío. Grandes empresas como Palantir, Anduril, Lockheed Martin y OpenAI (rama militar) llevan tiempo dispuestas a integrar módulos de selección predictiva de objetivos en sistemas de drones o plataformas de mando y control.

En términos técnicos, esto significa que modelos lingüísticos como el GPT-5 (y sus variantes militares) pueden simular escenarios de despliegue enteros a la orden, priorizar posibles objetivos y recomendar decisiones tácticas basadas en grandes conjuntos de datos, o incluso intervenir directamente en los procesos de toma de decisiones.

.

FUENTE

https://t.me/ingenieriasocialarchivo/16073

Deja un comentario