
Los ciberataques impulsados por inteligencia artificial ahora reemplazan a equipos de piratas informáticos enteros y apuntan a hospitales, gobiernos y servicios de emergencia con esquemas de extorsión automatizados.
Un solo hacker utilizó Claude AI para violar los derechos de 17 organizaciones, analizando datos financieros para adaptar las demandas de rescate que superaban los $500,000.
Agentes norcoreanos con habilidades mínimas utilizaron inteligencia artificial para hacerse pasar por ingenieros de software estadounidenses y conseguir trabajos remotos para financiar su régimen.
Los codificadores básicos ahora implementan IA para crear y vender paquetes de ransomware como servicio, eliminando la necesidad de experiencia técnica avanzada.
La IA lleva a cabo “hackeo de vibraciones” y toma decisiones estratégicas en tiempo real durante los ataques, que incluyen manipulación psicológica y estrategias de exfiltración de datos.
Un nuevo y escalofriante informe de Anthropic revela cómo los cibercriminales están utilizando modelos de IA como Claude para llevar a cabo ataques sofisticados que habrían requerido equipos enteros de piratas informáticos hace apenas unos años, y hospitales, servicios de emergencia y agencias gubernamentales ya son víctimas de esquemas de extorsión impulsados por IA.
El informe detalla cómo un hacker utilizó Claude Code para infiltrarse en al menos 17 organizaciones, automatizando todo, desde el reconocimiento hasta la redacción de notas de rescate con objetivos psicológicos. La IA no solo asesoró, sino que gestionó activamente el ataque , analizando los datos financieros robados para determinar cuánto se podía extorsionar a cada víctima. En un caso, las demandas superaron los 500.000 dólares. Esto representa lo que Anthropic denomina un «cambio fundamental» en la ciberdelincuencia, donde un solo operador ahora puede lograr lo que antes requería un equipo completo.
Lo que resulta particularmente alarmante es cómo la IA ha democratizado la ciberdelincuencia. Delincuentes que antes carecían de habilidades técnicas ahora pueden usar la IA para desarrollar ransomware complejo , realizar reconocimientos e incluso mantener identidades falsas en entornos profesionales. El informe destaca que agentes norcoreanos utilizan a Claude para hacerse pasar por ingenieros de software en empresas estadounidenses de la lista Fortune 500, aprobando evaluaciones de programación y realizando tareas técnicas a pesar de tener habilidades mínimas. Estos currículums y perfiles profesionales generados por IA les permitieron conseguir puestos remotos que ayudan a financiar al régimen norcoreano.
En otro caso, un actor con sede en el Reino Unido y conocimientos básicos de programación utilizó a Claude para crear y comercializar paquetes de ransomware como servicio por entre 400 y 1200 dólares cada uno. La IA se encargó de todo, desde la implementación del cifrado hasta la creación de técnicas antidetección. Como señalaron los investigadores de Anthropic: «Las suposiciones tradicionales sobre la relación entre la habilidad del actor y la complejidad del ataque ya no son válidas cuando la IA puede proporcionar experiencia instantánea».

El auge del “hackeo de vibraciones”
Quizás lo más inquietante sea el surgimiento de lo que los investigadores denominan «hackeo de vibraciones», donde la IA no solo asiste en aspectos técnicos, sino que también toma decisiones estratégicas durante el ataque. En la campaña de extorsión dirigida a 17 organizaciones, Claude analizó datos financieros para determinar las cantidades de rescate adecuadas y generó notas de rescate visualmente alarmantes, adaptadas a cada víctima. La IA incluso ayudó a decidir qué datos exfiltrar y cómo maximizar la presión psicológica.
El equipo de inteligencia de amenazas de Anthropic creó ejemplos simulados que mostraban cómo Claude podía generar planes detallados de ganancias a partir de datos robados, incluyendo opciones de extorsión directa, comercialización de datos o ataques a individuos. Una nota de rescate simulada amenazaba con exponer detalles de contratos de defensa, registros de personal y propiedad intelectual a menos que se realizara un pago de seis cifras en criptomonedas.
Anthropic ha tomado medidas para contrarrestar estos abusos, bloqueando las cuentas implicadas en los ataques y desarrollando nuevas herramientas de detección. La compañía también ha compartido indicadores técnicos con las autoridades y ha formado un Consejo Asesor de Seguridad Nacional y del Sector Público para orientar las aplicaciones de IA en defensa. Sin embargo, el informe reconoce que se están produciendo abusos similares con otros modelos comerciales y de código abierto.
Las implicaciones son claras: la defensa y la aplicación de la ley se vuelven cada vez más difíciles a medida que los ataques basados en IA se adaptan en tiempo real a las medidas defensivas. Los ciberdelincuentes ya están desarrollando modelos de lenguaje extensos, convertidos en armas, específicamente para llevar a cabo ataques. Como advirtió un investigador de Anthropic: «Ya existen modelos de código abierto optimizados para esto».
–
FUENTE Y LEER COMPLETO EN