Los hackers norcoreanos y chinos están aprovechando herramientas de inteligencia artificial (IA) como ChatGPT, Claude y Gemini para perfeccionar campañas de espionaje, suplantación y ataques cibernéticos.Estas técnicas representan un nuevo reto de seguridad global, pues permiten automatizar y sofisticar fraudes, desde el desarrollo de identidades falsas hasta la creación de ataques de phishing y deepfakes, afectando empresas y gobiernos en todo el mundo.IA en las campañas de espionajeKimsuky, un grupo norcoreano vinculado a operaciones de inteligencia internacional, utilizó ChatGPT para generar un borrador convincente de una identificación militar surcoreana.Estas identificaciones falsas fueron adjuntadas a mensajes de phishing dirigidos a instituciones oficiales de Corea del Sur.Especialistas de la firma Genians detectaron que los atacantes presentaron los prompts a ChatGPT como “diseños de muestra para fines legítimos,” logrando así evitar los filtros del sistema.Suplantación laboral y fraude digitalEl grupo Kimsuky también fue señalado por aprovechar la IA en la creación de currículums y portafolios falsos, e incluso para resolver pruebas técnicas y desarrollar tareas reales dentro de empresas, infiltrándose así en gigantes tecnológicos estadounidenses.Según un reporte de Anthropic, no sólo lograron conseguir empleos remotos con identidades falsas, sino que también completaron exitosamente labores técnicas gracias a la asistencia de la IA.Hackers chinos y uso avanzado de IAReportes recientes muestran que hackers chinos han empleado herramientas como Claude y ChatGPT para diseñar campañas de filtración avanzada focalizadas en sistemas gubernamentales y empresas de telecomunicaciones de Vietnam.Estas herramientas, además de facilitar la creación de scripts de ataque contra contraseñas, también se utilizan para reunir información sensible sobre redes de defensa y sistemas satelitales estadounidenses.Expansión del riesgo: y manipulación digitalEmpresas como OpenAI y Google han identificado el uso de sus modelos de IA para crear perfiles y publicaciones falsas, con el objetivo de generar división política y ejecutar campañas de desinformación.El uso de imágenes y textos sintéticos complica la identificación de cuentas apócrifas y dificulta la respuesta ante intentos de manipulación masiva o scams empresariales.Las operaciones de suplantación y ataques dirigidos mediante IA representan una amenaza creciente para empresas y gobiernos. El acceso cada vez más fácil a modelos generativos permite que actores con poca experiencia técnica puedan orquestar campañas automatizadas de fraude y phishing.Fuente: AnthropicThe post ChatGPT, Claude y Gemini, las IAs preferidas por hackers para ataques y fraudes digitales. first appeared on PasionMóvil.