Un informe de la empresa surcoreana Genians revela cómo el grupo Kimsuky, vinculado al régimen de Pyongyang, está utilizando herramientas de inteligencia artificial para crear credenciales militares falsas y desarrollar campañas de phishing avanzadas. En 2025, la inteligencia artificial (IA) ha dejado de ser solo una herramienta para la productividad o la innovación, convirtiéndose también en un arma ofensiva en manos de actores maliciosos. El grupo Kimsuky, conocido por sus operaciones de ciberespionaje y estrechamente vinculado al régimen de Corea del Norte, ha sido identificado como responsable de una nueva ola de ataques en la que la IA ocupa un papel central.Según la firma de ciberseguridad surcoreana Genians, los atacantes han utilizado plataformas como ChatGPT para generar identificaciones militares falsas de Corea del Sur. Estos documentos deepfake se integraron en campañas de phishing que simulaban la procedencia de fuentes oficiales, aumentando así la credibilidad de los correos maliciosos que distribuían malware.La IA como herramienta de infiltraciónEl uso de la inteligencia artificial por parte de Kimsuky no se limita a la generación de documentos falsos. Investigaciones adicionales apuntan a que el grupo recurrió también a otros modelos, como Claude (de Anthropic), para fabricar currículos falsos, construir perfiles digitales convincentes e incluso superar pruebas de codificación en procesos de selección. La finalidad: infiltrarse en compañías extranjeras y acceder a información sensible.Los expertos advierten de que este tipo de prácticas demuestra la capacidad de los ciberatacantes para sortear filtros de seguridad en herramientas de IA, mediante técnicas de prompt engineering que disfrazan las solicitudes como inofensivas o educativas.Implicaciones globalesEl caso refleja una tendencia preocupante: la consolidación de la IA como multiplicador de amenazas cibernéticas, capaz de automatizar tareas, perfeccionar ataques y escalar campañas a gran velocidad. Para muchos especialistas, esta evolución marca el inicio de una nueva fase en la ciberseguridad, donde la frontera entre ataques humanos y automatizados se difumina.Más informaciónTimes of India – ChatGPT misused by North Korean hackers: https://www.businessinsider.com/north-korea-china-hackers-infiltrate-companies-ai-resumes-military-id-2025-9Business Insider – North Korea hackers infiltrate firms with AI-generated resumes: https://www.businessinsider.com/north-korea-china-hackers-infiltrate-companies-ai-resumes-military-id-2025-9Infosecurity Magazine – AI-Forged Military IDs Used in North Korean Phishing Attack: https://www.infosecurity-magazine.com/news/ai-military-ids-north-korea/La entrada Uso de IA en Corea del Norte para falsificar identidades militares y lanzar ataques se publicó primero en Una Al Día.