OpenAI lanza GPT-5.4-Cyber para «miles» de defensores de ciberseguridad: el modelo con menos restricciones para vulnerabilidades, en respuesta directa a Anthropic Mythos

Wait 5 sec.

OpenAI ha lanzado este 15 de abril GPT-5.4-Cyber, una variante de su modelo principal específicamente afinada para trabajo defensivo en ciberseguridad. El modelo se distribuye dentro de un programa expandido llamado Trusted Access for Cyber (TAC), que la compañía está ampliando desde un piloto limitado a «miles de defensores verificados individualmente y cientos de equipos responsables de defender software crítico», según las cifras facilitadas por la propia OpenAI. Es un movimiento directamente comparable al Project Glasswing que Anthropic anunció el 7 de abril con su modelo Claude Mythos, pero con una filosofía diametralmente opuesta: mientras Anthropic ha decidido restringir su modelo más capaz a solo 11 organizaciones (Apple, Google, Microsoft, AWS, Cisco, CrowdStrike, JPMorgan Chase entre ellas), OpenAI apuesta por acceso amplio con verificación. Dos visiones contrarias del mismo problema, y la industria se está dividiendo en bandos.Lo distintivo de GPT-5.4-Cyber, según los reportes complementarios de Derek B. Johnson en CyberScoop y Ana Maria Constantin en TheNextWeb, es lo que ellos llaman «lowered refusal boundary». Los modelos de propósito general bloquean por defecto preguntas sensibles sobre investigación de vulnerabilidades, análisis de exploits o comportamiento de malware. La variante Cyber está diseñada para responder esas preguntas, siempre que el usuario haya pasado verificación como profesional legítimo de ciberseguridad. La función estrella es la ingeniería inversa de binarios: los analistas pueden subir un ejecutable compilado y recibir análisis de comportamiento potencialmente malicioso, vulnerabilidades embebidas y debilidades estructurales. Es trabajo que tradicionalmente requiere herramientas especializadas como IDA Pro o Ghidra, además de horas o días de experiencia humana.El programa Trusted Access for Cyber se lanzó originalmente en febrero junto con un fondo de 10 millones de dólares para grants en investigación de ciberseguridad. La actualización de hoy lo escala drásticamente: usuarios individuales pueden autenticarse en chatgpt.com/cyber, las empresas pueden solicitar acceso para sus equipos completos a través de un representante de OpenAI, y los investigadores que necesiten las capacidades más permisivas pueden aplicar a un nivel invitation-only. Hay una contrapartida importante para los usuarios del nivel más alto: deben renunciar a Zero-Data Retention, lo que significa que OpenAI mantiene visibilidad sobre lo que están haciendo con el modelo. Las consultas, los binarios analizados, los exploits estudiados, todo queda registrado en algún sitio. Para equipos que trabajan con infraestructura clasificada o muy sensible, esa visibilidad puede ser un dealbreaker. Y crea un punto único de compromiso: si los logs de OpenAI se filtran, se convierten en un mapa de vulnerabilidades sin parchear de las organizaciones más críticas del planeta.El contraste con la apuesta de Anthropic es lo más interesante del movimiento. Anthropic argumenta que las capacidades de descubrimiento de zero-days que tiene Claude Mythos (incluida la identificación autónoma de un bug de 27 años en OpenBSD y un fallo de RCE de 17 años en FreeBSD) son demasiado peligrosas para ponerlas en manos de cualquiera, y por eso restringe el acceso a un consorcio cerrado de gigantes tecnológicos y entidades financieras. OpenAI, en cambio, sostiene que limitar herramientas defensivas a un puñado de empresas grandes deja sin protección al resto: hospitales municipales, infraestructura crítica de pequeñas ciudades, ayuntamientos, ONGs, firmas de seguridad de tamaño medio. Su argumento es que si los atacantes no tienen ninguna restricción, los defensores tampoco deberían tenerla. Esa frase resume exactamente la fractura filosófica de la industria.GPT-5.4-Cyber complementa también a Claude Code Security, la herramienta automatizada de escaneo de código de Anthropic que detectó más de 500 vulnerabilidades de alta severidad en código open source en su preview, y a Codex Security, la herramienta paralela de OpenAI que ya ha contribuido a más de 3.000 fixes de vulnerabilidades críticas y de alta severidad en el ecosistema open source, cubriendo más de 1.000 proyectos a través de un programa de escaneo gratuito. La pregunta de fondo, sin embargo, sigue siendo la misma para ambos enfoques: ¿pueden las protecciones aguantar? Una investigación publicada en enero encontró que ataques adaptativos de prompt injection consiguen burlar incluso las defensas más avanzadas más del 85% del tiempo, lo que sugiere que el modelo de «rechazo» como salvaguarda principal está perdiendo terreno frente a la realidad técnica. OpenAI parece haberlo aceptado: prefiere verificar quién pregunta antes que filtrar qué responde.El telón de fondo regulatorio añade otra capa. La parte sustantiva del EU AI Act entra en vigor el 2 de agosto de 2026. Los sistemas de IA de alto riesgo, categoría en la que probablemente caen las herramientas de automatización de seguridad, tendrán que demostrar cumplimiento con requisitos de gestión de riesgo, gobernanza de datos, transparencia y supervisión humana. Cómo encajan los modelos de acceso por niveles dentro de ese marco es una pregunta abierta que ni OpenAI ni Anthropic han abordado con claridad. Y mientras tanto, las dos compañías más prominentes del sector están corriendo para equipar a profesionales de ciberseguridad con modelos capaces de encontrar y analizar vulnerabilidades a una velocidad que era imposible hace un año.Mi valoración: la división entre Anthropic y OpenAI es genuinamente filosófica y refleja dos teorías sobre cómo evitar el desastre. La de Anthropic dice «concentremos el poder en pocas manos confiables y que filtren los hallazgos al resto»; la de OpenAI dice «demos el mismo poder a todos los defensores legítimos para que los atacantes no tengan ventaja». Ambas tienen mérito y ambas tienen debilidades. La de Anthropic crea un cuello de botella que puede asfixiar la velocidad de respuesta a vulnerabilidades nuevas; la de OpenAI multiplica los puntos de fallo si la verificación KYC se compromete. Mi sospecha es que el modelo de OpenAI escala mejor pero rompe antes, y el de Anthropic funciona perfecto hasta que el consorcio se queda obsoleto. Para los profesionales de ciberseguridad que trabajan en empresas medianas, sin embargo, la noticia es buena: por primera vez tendrán acceso a un modelo de IA específicamente diseñado para defensa, sin las limitaciones artificiales que les obligaban a tirar de jailbreaks para obtener respuestas técnicas básicas. La cuestión a vigilar no es si funciona (probablemente sí), sino qué pasa cuando uno de esos «miles» de defensores verificados resulta no ser quien decía ser.Preguntas frecuentes¿Quién puede acceder a GPT-5.4-Cyber? Profesionales de ciberseguridad verificados a través del programa Trusted Access for Cyber. Hay tres niveles: individual (chatgpt.com/cyber), equipos empresariales (a través de representante OpenAI) e investigadores avanzados (invitation-only). ¿Hay restricciones de uso? El nivel más alto requiere renunciar a Zero-Data Retention, lo que significa que OpenAI mantiene logs de las consultas. Para infraestructura sensible o clasificada, esto puede ser un problema serio. ¿Por qué OpenAI hace esto si Anthropic restringe Mythos a solo 11 empresas? Filosofía opuesta: OpenAI cree que la defensa requiere acceso amplio con verificación; Anthropic cree que el riesgo justifica acceso ultra-restringido. Las dos compañías están apostando por estrategias contrarias al mismo problema.La noticia OpenAI lanza GPT-5.4-Cyber para «miles» de defensores de ciberseguridad: el modelo con menos restricciones para vulnerabilidades, en respuesta directa a Anthropic Mythos fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.