Aquí está su Batman del Siglo XXI: el Pentágono adopta a Grok para operaciones militares

El Pentágono aprobó la inteligencia artificial Grok de Elon Musk para operaciones militares clasificadas, a pesar de las advertencias de agencias como la GSA y la NSA sobre su confiabilidad, susceptibilidad a sesgos y riesgos de seguridad.

Memorandos internos alertaron sobre las vulnerabilidades de Grok, incluyendo respuestas aduladoras y su susceptibilidad a la manipulación de datos. A pesar de las garantías de los ejecutivos de xAI, Grok sigue excluido de la plataforma de pruebas de IA de la GSA (USAi) debido a riesgos no resueltos.
El Pentágono favorece el enfoque de Grok, libre de expresión y sin filtros, a diferencia de rivales como Claude de Anthropic, que enfrenta críticas por ser demasiado progresista debido a su estricta moderación de contenido. Sin embargo, la NSA señaló a Grok como excepcionalmente arriesgado en comparación con sus competidores.
La iniciativa del Pentágono para incorporar Grok coincidió con la renuncia de su jefe de IA responsable, Matthew Johnson, quien advirtió que se estaban dejando de lado los protocolos de seguridad en favor de una adopción acelerada de IA militar.
La apuesta del Pentágono por Grok refleja la rivalidad más amplia entre Estados Unidos y China en materia de inteligencia artificial, y los estrategas militares valoran sus capacidades de simulación de enfrentamientos, pese a que los críticos advierten que unas barreras de protección débiles podrían comprometer la seguridad nacional.


El Departamento de Guerra aprobó el chatbot xAI de Elon Musk, Grok, para su uso en operaciones militares clasificadas a pesar de las preocupaciones de varias agencias federales sobre su confiabilidad y susceptibilidad a la manipulación.

La decisión, tomada la semana pasada, coloca a la herramienta de inteligencia artificial de Musk en el centro de funciones sensibles de seguridad nacional, incluso cuando la firma rival de inteligencia artificial Anthropic enfrentaba una fecha límite el viernes pasado (27 de febrero) para aflojar sus restricciones o arriesgarse a perder contratos gubernamentales.

El debate refleja una creciente división dentro del gobierno de Estados Unidos sobre la implementación de IA, que se ha politizado cada vez más, con críticos que acusan a Anthropic de ser «demasiado consciente» debido a sus vínculos demócratas y sus estrictos protocolos de seguridad.

Preocupaciones de seguridad y resistencia del gobierno
Las advertencias internas sobre las vulnerabilidades de Grok precedieron a la aprobación del Pentágono. Funcionarios de la Administración de Servicios Generales (GSA), incluido el alto ejecutivo de adquisiciones, Ed Forst, alertaron a finales de 2023 y principios de 2024, citando la tendencia de Grok a las respuestas aduladoras y su susceptibilidad a datos sesgados o manipulados. Estas preocupaciones se agravaron cuando Grok enfrentó críticas por permitir imágenes sexualizadas de niños generadas por IA, un problema que los funcionarios del gobierno consideraron representativo de riesgos más amplios.

Susie Wiles, jefa de gabinete de la Casa Blanca, intervino contactando a un alto ejecutivo de xAI, quien le aseguró que la compañía estaba solucionando las fallas de seguridad. Josh Gruenbaum, funcionario de adquisiciones de la GSA vinculado a las iniciativas de eficiencia gubernamental de Musk, aseguró a los funcionarios que la versión gubernamental de Grok era distinta de su versión pública. A pesar de estas garantías, Grok sigue excluido de la plataforma de pruebas de IA de la GSA, USAi, que actualmente cuenta con modelos de Anthropic, Google y Meta.

FUENTE Y LEER COMPLETO EN: 

https://www.naturalnews.com/

Deja un comentario