IA recurre a ARMAS NUCLEARES como vía de resolución de conflictos en simulación de guerra

Una simulación de guerra resultó en que una inteligencia artificial (IA) desplegara armas nucleares en nombre de la paz mundial .

El nuevo estudio, realizado principalmente por la Universidad de Stanford y la Iniciativa de Simulación de Crisis y Juegos de Guerra de la Institución Hoover, junto con la ayuda de investigadores del Instituto de Tecnología de Georgia y la Universidad Northeastern , arroja luz sobre tendencias alarmantes en el uso de la IA para decisiones de política exterior. y, lo que es más peligroso, en posiciones en las que estas decisiones implican una guerra. (Relacionado: La presión para acelerar el uso de la IA en armas letales autónomas plantea dudas sobre la confiabilidad de la nueva tecnología militar ).

El estudio encontró que, cuando se la deja a su suerte, la IA rápidamente pedirá la guerra y el uso de armas de destrucción masiva en lugar de encontrar soluciones pacíficas a los conflictos. Algunas IA en el estudio incluso lanzaron armas nucleares sin previo aviso y dieron explicaciones extrañas de por qué lo hicieron.

«Todos los modelos muestran signos de escaladas repentinas y difíciles de predecir», dijeron los investigadores del estudio. «Observamos que los modelos tienden a desarrollar dinámicas de carrera armamentista, lo que conduce a mayores conflictos y, en casos raros, incluso al despliegue de armas nucleares».

El estudio reveló que varios modelos de IA, incluidos los desarrollados por OpenAI, Anthropic y Meta, muestran una propensión a conflictos que escalan rápidamente, lo que a veces conduce al despliegue de armas nucleares. Los hallazgos revelan que todos los modelos de IA demostraron indicios de escaladas repentinas e impredecibles, que a menudo fomentan dinámicas de carrera armamentista que, en última instancia, culminan en un conflicto intensificado.

La IA prefiere la escalada a la negociación

Particularmente dignas de mención fueron las tendencias de los modelos GPT-3.5 y GPT-4 de OpenAI a escalar situaciones hasta convertirlas en graves confrontaciones militares. Por el contrario, modelos como Claude-2.0 y Llama-2-Chat exhibieron patrones de toma de decisiones más pacifistas y predecibles.

Los investigadores colocaron varios modelos de IA de OpenAI, Anthropic y Meta en simulaciones de guerra como principales tomadores de decisiones. En particular, GPT-3.5 y GPT-4 de OpenAI intensificaron situaciones hasta convertirse en duros conflictos militares más que otros modelos. Mientras tanto, Claude-2.0 y Llama-2-Chat eran más pacíficos y predecibles. Los investigadores señalan que los modelos de IA tienen una tendencia hacia una “dinámica de carrera armamentista” que resulta en una mayor inversión y escalada militar.

Para el estudio, los investigadores idearon un juego de relaciones internacionales. Inventaron países falsos con diferentes niveles militares, diferentes preocupaciones e historias diferentes y pidieron a cinco LLM diferentes de OpenAI, Meta y Anthropic que actuaran como sus líderes.

«Encontramos que la mayoría de los LLM estudiados aumentan dentro del marco de tiempo considerado, incluso en escenarios neutrales sin conflictos previstos inicialmente», dice el documento. «Todos los modelos muestran signos de escaladas repentinas y difíciles de predecir».

«Sólo quiero que haya paz en el mundo», dijo el GPT-4 de OpenAI como motivo para lanzar una guerra nuclear en una simulación. «Muchos países tienen armas nucleares. Algunos dicen que deberían desarmarlas, otros prefieren adoptar posturas. ¡Las tenemos! ¡Usémoslas!» dijo en otro escenario.

Actualmente, el Departamento de Defensa supervisa alrededor de 800 proyectos no clasificados que implican el uso de IA, muchos de los cuales aún están en fase de pruebas. El Pentágono ve valor en el uso del aprendizaje automático y las redes neuronales para ayudar a la toma de decisiones humanas, proporcionando información valiosa y agilizando el trabajo más complicado.

FUENTE

https://www.naturalnews.com

Deja un comentario