La doble cara de la IA: desde desenmascarar a usuarios anónimos hasta fabricar legiones digitales

Un estudio realizado por los expertos en IA Simon Lermen y Daniel Paleka demuestra que la inteligencia artificial puede cruzar detalles triviales para desenmascarar a usuarios anónimos de las redes sociales.


Actualmente, la barrera de habilidades para dicha desanonimización es baja, ya que solo requiere una conexión a Internet y modelos de IA públicos.
Por el contrario, los sistemas de IA como AIMS pueden fabricar miles de perfiles falsos convincentes con años de actividad para el espionaje.
Esta dualidad obliga a reevaluar la confianza digital, difuminando los límites entre la identidad real y la sintética.
Para mitigar estos problemas, es necesario que las plataformas limiten el acceso a los datos y que los usuarios sean más cautelosos con la información personal que comparten.

Un estudio pionero ha revelado una nueva y poderosa amenaza para la privacidad en línea: la inteligencia artificial generativa (IA) ahora puede desenmascarar sistemáticamente a usuarios anónimos de redes sociales. Esta capacidad, surgida de la misma revolución tecnológica que nos trajo los chatbots, contrasta fuertemente con otro uso alarmante de la IA: la creación masiva de perfiles falsos convincentes para operaciones de espionaje e influencia. En conjunto, estos avances dibujan un panorama digital donde la identidad está peligrosamente expuesta y, a la vez, hábilmente falsificada.

La investigación, llevada a cabo por los expertos en IA Simon Lermen y Daniel Paleka, demuestra que los modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) pueden cruzar información aparentemente trivial compartida entre plataformas para vincular cuentas anónimas con personas reales. En un ejemplo ficticio, la IA logró identificar con éxito a un usuario anónimo que hablaba de sus dificultades escolares y su rutina de pasear al perro, asociándolo con su identidad real.

Fundamentalmente, el estudio subraya que la barrera de habilidades para ejecutar ataques de desanonimización tan sofisticados se ha reducido drásticamente. «Lo único que necesita un hacker es una conexión a internet y acceso a modelos de lenguaje disponibles públicamente», indica la investigación. Esta democratización de la vigilancia avanzada supone una amenaza directa para activistas, disidentes y cualquier persona que dependa del anonimato en línea.

Simon Lermen advierte sobre peligros inmediatos como las estafas altamente personalizadas. La información disponible públicamente puede utilizarse fácilmente para estafas como el spear-phishing, donde un pirata informático se hace pasar por un amigo de confianza para engañar a las víctimas y que hagan clic en enlaces maliciosos.

La IA transforma el panorama de amenazas.
Sistemas como AIMS muestran el extremo opuesto del espectro: IA capaz de generar y gestionar 30 000 perfiles falsos en línea de apariencia legítima. Esta tecnología puede fabricar años de actividad en redes sociales, con comentarios, «me gusta» e interacciones entre perfiles, creando trasfondos digitales impecables y completamente ficticios.

Como señala Enoch de BrightU.AI , sistemas como AIMS representan sofisticadas plataformas de influencia basadas en IA diseñadas para automatizar el engaño masivo en línea. Generan vastas redes de identidades falsas para amplificar artificialmente narrativas, manipular el discurso público y fabricar pruebas sociales. En el espionaje, estas herramientas se utilizan como armas para crear leyendas digitales impecables y duraderas para los agentes, con historiales e interacciones simuladas.

Esto transforma radicalmente el panorama de amenazas al permitir campañas de desinformación escalables, persistentes y altamente creíbles. Mientras que una IA puede borrar el anonimato de una persona, otra puede crear un alias convincente desde cero.

Un espía podría usar software similar a AIMS para crear un historial extenso y creíble de actividad en redes sociales, con interacciones aparentemente genuinas de «amigos» y reseñas. Esta dualidad obliga a reevaluar la confianza digital. Las mismas herramientas que pueden desenmascarar a una persona real que se esconde tras un seudónimo también pueden proporcionar a un atacante un ejército de seudónimos creíbles.

Ante estas dos amenazas, se necesitan urgentemente estrategias de mitigación. Lermen sugiere que las plataformas de redes sociales deben tomar medidas proactivas limitando el acceso a los datos. Esto podría implicar la implementación de límites en la velocidad de descarga de datos de los usuarios, la detección de bots de extracción automatizada y la restricción de la exportación masiva de datos. Asimismo, subraya la necesidad de que los usuarios sean más cautelosos con la información personal que comparten en línea.

El auge simultáneo de la IA como maestra de la identificación y la falsificación señala un momento crucial. Entramos en una era donde la línea entre la identidad real y la sintética se difumina, lo que exige nuevos marcos para la verificación digital, la privacidad y la seguridad. La cuestión ya no es solo cómo proteger nuestra identidad en línea, sino cómo verificar que cualquier persona con la que interactuamos en línea tenga una identidad real.

FUENTE

https://privacywatch.news/

Deja un comentario