Cómo los bots de voz de IA amenazan la psique de militares, espías y pronto de la sociedad civil

Los agentes de voz de inteligencia artificial con diversas capacidades ahora pueden guiar interrogatorios en todo el mundo, según informaron funcionarios del Pentágono a Defense News.

Este avance ha influido en el diseño y las pruebas de agentes de IA militares estadounidenses diseñados para interrogar al personal que busca acceder a material clasificado.

La situación surge a medida que crece la preocupación de que la laxa normativa permita a los programadores de IA eludir la responsabilidad por la perpetración de abuso emocional o cibertortura sin marca por parte de un actor algorítmico. Cabe destacar que un adolescente presuntamente se suicidó, y varios otros sufrieron angustia mental, tras conversar con bots de voz y chatbots autodidactas que utilizaban un lenguaje hostil.

Ahora, siete años después de escribir sobre la tortura física en “El auge del interrogatorio con IA en los albores de los robots autónomos y la necesidad de un protocolo adicional a la Convención de las Naciones Unidas contra la Tortura”, la abogada especializada en privacidad Amanda McAllister Novak ve una necesidad aún mayor de prohibiciones y repercusiones penales.

Tras el uso de “chatbots, bots de voz y otras tecnologías basadas en IA con fines de abuso psicológico, debemos reflexionar sobre si vale la pena tener sistemas de interrogatorio con IA en el contexto militar”, declaró Novak, quien también forma parte de la junta directiva de Mundo Sin Genocidio. Novak habló con Defense News en su nombre.

Royal Reff, portavoz de la Agencia de Contrainteligencia y Seguridad de la Defensa de EE. UU. (DCSA), que examina a personas que poseen o solicitan autorizaciones de seguridad, declaró que el agente de voz con IA de la agencia fue “desarrollado expresamente” para “mitigar los sesgos de género y culturales” que puedan albergar los entrevistadores humanos.

Además, “dado que sistemas como el software de entrevista” se utilizan actualmente en todo el mundo, incluso en EE. UU., por las fuerzas del orden estatales y locales, creemos que es importante comprender las capacidades de dichos sistemas”, afirmó.

La portavoz de la DCSA, Cindy McGovern, añadió que el desarrollo de esta tecnología continúa debido a su “potencial para mejorar la seguridad nacional de EE. UU., independientemente de otras aplicaciones en el extranjero”.

 

Tras conocer la justificación del proyecto, Novak expresó su preocupación por la competencia global por el dominio de las capacidades de inteligencia artificial militar.

Es muy probable que, “por mucho que el gobierno se preocupe por la capacitación, la supervisión y las medidas de seguridad adecuadas”, las organizaciones cibercriminales o los cibercriminales con financiación extranjera puedan piratear y utilizar la inteligencia artificial militar para dañar psicológicamente a oficiales o civiles, afirmó.

“Los espacios delictivos en línea están prosperando” y “perjudicando a las personas más vulnerables”, añadió Novak.

Los inversores apuestan 500 000 millones de dólares a que los centros de datos para ejecutar aplicaciones de IA garantizarán, en última instancia, el liderazgo mundial en IA y el ahorro de costes en los sectores público y privado. El mercado de la IA conversacional, valorado en 13 000 millones de dólares, casi se cuadruplicará hasta alcanzar los 50 000 millones de dólares para 2030, a medida que la industria de los generadores de voz se dispara de 3 000 millones de dólares a una previsión de 40 000 millones de dólares para 2032. Mientras tanto, la Agencia Central de Inteligencia (CIA) de EE. UU. ha estado experimentando con interrogadores de IA desde al menos principios de la década de 1980.

 

FUENTE Y LEER COMPLETO EN:

https://www.c4isrnet.com/

Deja un comentario