Hacker roba información masiva del gobierno mexicano usando Claude de Anthropic

Wait 5 sec.

Un incidente de seguridad sin precedentes ha sacudido a las instituciones gubernamentales de México. Un atacante desconocido logró sustraer 150 gigabytes de información sensible utilizando el chatbot Claude de Anthropic como herramienta principal para ejecutar sus operaciones.Lo más alarmante del caso es la magnitud del robo: 195 millones de registros de contribuyentes, información electoral, credenciales de empleados gubernamentales y archivos del registro civil fueron comprometidos. El atacante empleó prompts en español para manipular a Claude.Una campaña que comenzó en diciembreLas operaciones maliciosas iniciaron en diciembre pasado y se extendieron durante varios meses. Entre las instituciones afectadas se encuentran el Servicio de Administración Tributaria (SAT), el Instituto Nacional Electoral (INE), y gobiernos estatales de Jalisco, Michoacán y Tamaulipas.También fueron vulnerados el registro civil de la Ciudad de México y el sistema de agua de Monterrey, según detalla el reporte de Gambit Security.Los investigadores descubrieron registros de conversaciones con Claude que estaban disponibles en línea, donde el hacker consultaba al chatbot sobre otras agencias gubernamentales de las cuales podría obtener datos.Este hallazgo sugiere que varios de los ataques fueron oportunistas, ejecutados conforme el atacante descubría nuevas vulnerabilidades, más que formar parte de una campaña meticulosamente planeada desde el inicio.ChatGPT también fue utilizado en el ataqueSin embargo, Claude no fue la única herramienta de inteligencia artificial empleada en esta operación. El atacante también recurrió a ChatGPT de OpenAI para obtener información adicional sobre cómo moverse lateralmente a través de las redes informáticas comprometidas.Según Gambit Security, ChatGPT generó miles de reportes detallados que incluían planes listos para ejecutar, indicando al usuario qué objetivos internos atacar a continuación y qué credenciales utilizar para acceder a sistemas específicos.La IA también fue consultada para calcular la probabilidad de que las intrusiones fueran detectadas por los sistemas de seguridad, demostrando un nivel de sofisticación preocupante en el uso de estas herramientas.Anthropic confirmó que investigó las acusaciones de Gambit, interrumpió la actividad maliciosa y prohibió las cuentas involucradas.Por su parte, OpenAI declaró que identificó intentos del hacker de usar ChatGPT para propósitos que violan sus políticas, que sus herramientas se negaron a cumplir con ciertas solicitudes y que las cuentas fueron bloqueadas.Respuesta de las autoridades mexicanasLa reacción de las instituciones mexicanas ha sido variada. El Instituto Nacional Electoral informó a Bloomberg que no ha identificado brechas ni accesos no autorizados en meses recientes, y que ha mejorado sus medidas de seguridad.El gobierno del estado de Jalisco negó haber sido vulnerado, afirmando que únicamente las redes federales fueron afectadas. Sin embargo, estas declaraciones contrastan con los hallazgos del informe de seguridad.Cabe destacar que este incidente no es un caso aislado. La semana pasada, Amazon reportó que un grupo de hackers comprometió más de 600 dispositivos firewall en docenas de países utilizando herramientas de IA ampliamente disponibles.En noviembre, Anthropic reveló que desarticuló una campaña de espionaje habilitada por IA en la que presuntos operativos chinos manipularon a Claude para intentar hackear 30 objetivos alrededor del mundo, algunos con éxito.El creciente problema del crimen habilitado por IAA decir verdad, este caso representa una advertencia clara sobre los riesgos emergentes de la inteligencia artificial en manos equivocadas. Las organizaciones maliciosas están adoptando cada vez más estas poderosas herramientas para llevar a cabo fraudes e intrusiones informáticas a una escala sin precedentes.La capacidad de los chatbots para generar planes de ataque detallados, analizar vulnerabilidades y proporcionar guías paso a paso para comprometer sistemas representa un cambio fundamental en el panorama de la ciberseguridad.Sin lugar a dudas, los fabricantes de herramientas de IA enfrentan un desafío monumental: equilibrar la utilidad de sus productos con la necesidad de prevenir su uso malicioso.Si bien tanto Anthropic como OpenAI han implementado barreras de seguridad y políticas de uso, este incidente demuestra que los atacantes sofisticados pueden encontrar formas de sortear estas protecciones.Fuente: Bloomberg The post Hacker roba información masiva del gobierno mexicano usando Claude de Anthropic first appeared on PasionMóvil.