OpenAI va a hacer exactamente lo mismo que criticó a Anthropic en abril. Lo cuenta Julie Bort en TechCrunch este 30 de abril. Sam Altman ha confirmado en X que GPT-5.5 Cyber, el modelo afinado para tareas de ciberseguridad, se distribuirá «a defensores cibernéticos críticos» en los próximos días, mediante una aplicación que requiere que el solicitante envíe sus credenciales y especifique el uso previsto. Es decir, acceso restringido a usuarios verificados, exactamente la misma filosofía que el 21 de abril Altman calificó de «marketing basado en el miedo» cuando Anthropic la aplicó a Claude Mythos.Para los que llevamos siguiendo este enfrentamiento desde principios de mes, la ironía es brutal. Anthropic y OpenAI han estado los últimos 18 meses defendiendo posiciones públicas contradictorias sobre cómo distribuir herramientas IA con capacidades de seguridad ofensiva. Anthropic argumentaba que las capacidades de descubrimiento de zero-days de Mythos eran demasiado peligrosas para acceso público; OpenAI argumentaba que el acceso restringido protegía a las grandes empresas y dejaba a hospitales municipales, ayuntamientos y firmas medianas indefensas. Hoy OpenAI cambia la posición sin reconocerlo.Lo que hace GPT-5.5 CyberEl modelo está diseñado para tareas defensivas avanzadas: pruebas de penetración (penetration testing), identificación de vulnerabilidades (vulnerability identification) y, crucialmente, su explotación, además de ingeniería inversa de malware (malware reverse engineering). En la propia descripción de OpenAI se reconoce que es «un kit de herramientas para ayudar a una empresa a encontrar agujeros de seguridad y probar defensas» pero también que «podría ser mal usado por los chicos malos». Es decir, OpenAI admite que las capacidades del modelo son las mismas que Anthropic invocó para restringir Mythos.La aplicación está en openai.com/form/enterprise-trusted-access-for-cyber/. Los solicitantes deben enviar información sobre sus credenciales y uso previsto. OpenAI dice que está consultando con el gobierno de Estados Unidos para identificar más usuarios «con credenciales legítimas de ciberseguridad» y ampliar el acceso.La controversia entre OpenAI y Anthropic sobre acceso a herramientas Cyber lleva semanas escalando. Cuando OpenAI lanzó GPT-5.4-Cyber el 15 de abril, lo posicionó como «miles de defensores verificados individualmente y cientos de equipos responsables de defender software crítico», en deliberada oposición a las 11 organizaciones (Apple, Google, Microsoft, AWS, JPMorgan Chase) a las que Anthropic había restringido Mythos. La filosofía de OpenAI era acceso amplio con verificación. Ahora, dos semanas después, GPT-5.5 Cyber adopta el modelo restringido que OpenAI criticaba.La cita exacta de Altman: «marketing basado en el miedo»El contexto del cambio de postura es lo que hace esta historia interesante. El 21 de abril, Sam Altman publicó comentarios públicos criticando a Anthropic por restringir Mythos. La acusación específica fue que el discurso público de Anthropic sobre los peligros de las capacidades cyber-ofensivas de su modelo era «fear-based marketing»: una táctica de comunicación que vende restricción como responsabilidad mientras genera publicidad gratuita por el aura de «demasiado poderoso para lanzarse al público».Algunos críticos coincidieron en su momento. La retórica de Anthropic sobre Mythos sugería un riesgo apocalíptico cuando, en la práctica, los ataques con IA exitosos siguen usando phishing básico y contraseñas reutilizadas, no zero-days exóticos descubiertos por modelos de frontera. Y, paradójicamente, un grupo no autorizado consiguió acceso a Mythos según reportes posteriores, lo que cuestionaba la efectividad de las propias restricciones de Anthropic.Hoy OpenAI hace exactamente lo que criticó. La aplicación de GPT-5.5 Cyber requiere credenciales y aprobación. La diferencia con Mythos es semántica: OpenAI dice que va a «ampliar» el acceso «consultando con el gobierno», mientras Anthropic dice que va a «expandir» el acceso «trabajando con socios». Las palabras cambian; la estructura es idéntica.El contexto de Mythos cuando se anunció el 7 de abril es importante. Anthropic identificó miles de vulnerabilidades zero-day en pocas semanas, incluyendo bugs de 27 años en OpenBSD y de 17 años en FreeBSD (RCE). El modelo se distribuyó a 12 organizaciones partner y 40 organizaciones adicionales con infraestructura crítica: Apple, Amazon, Microsoft, Google, Cisco, Broadcom, CrowdStrike, Palo Alto Networks, JPMorgan Chase, Nvidia y Linux Foundation. Las acciones de empresas de ciberseguridad cayeron entre 5 y 11 por ciento tras la filtración inicial sobre Mythos.La fragmentación filosófica que ya no existeEl enfrentamiento entre Anthropic y OpenAI ha sido uno de los debates más reveladores de la industria de IA en 2026, y la convergencia de hoy disuelve gran parte de él. La pregunta que estaba sobre la mesa era genuinamente importante: ¿qué nivel de acceso a herramientas cyber-ofensivas IA es apropiado, dado el riesgo dual de uso defensivo legítimo y uso ofensivo malicioso?Anthropic respondía con el modelo de consorcio cerrado: solo organizaciones con infraestructura crítica que demuestren capacidad defensiva. OpenAI respondía con el modelo de acceso amplio verificado: miles de defensores con credenciales individuales. Hoy la respuesta de la industria es la misma para los dos modelos punteros: acceso restringido, aplicación, verificación, control de exportación implícito a través del proceso de aprobación. La pregunta filosófica está respondida por la convergencia, no por el debate.La discusión sobre seguridad en IA ha crecido en sofisticación durante el último año. La batalla silenciosa entre Anthropic y OpenAI en red teaming muestra filosofías opuestas: Anthropic publicó una system card de 153 páginas para Claude Opus 4.5 con miles de pruebas mediante ataques por refuerzo (200 intentos por ataque), mientras OpenAI prefiere intentos únicos y parches iterativos en su system card de GPT-5 (60 páginas). Claude Opus 4.5 fue el más resistente con 4,7 por ciento ASR frente al 21,9 por ciento de GPT-5.1, según Gray Swan.La realidad operativa: el riesgo es realEl cambio de postura de OpenAI no debería leerse como capitulación retórica. Probablemente refleja datos internos sobre el comportamiento de GPT-5.5 Cyber que justifican preocupación real. Si la propia OpenAI ha decidido que un modelo capaz de penetration testing, identification y explotación de vulnerabilidades, y reverse engineering de malware no debe estar en manos de cualquier suscriptor de ChatGPT Plus, es porque las capacidades han escalado lo suficiente como para que el riesgo de uso ofensivo malicioso supere los beneficios del acceso democrático.La realidad de los ataques con IA ya no es teórica. En enero de 2026 un hacker rusohablante usó múltiples herramientas (incluyendo Claude y DeepSeek) para hackear más de 600 dispositivos de firewall en más de 55 países, según AWS. En abril, un atacante solitario usó Claude y ChatGPT para comprometer nueve agencias del gobierno mexicano, robando cientos de millones de registros. El argumento de que las herramientas Cyber con IA son «demasiado peligrosas» no es marketing: es la lectura que cualquier equipo de seguridad razonable hace después de ver lo que se puede hacer con acceso a estos modelos.El caso del hacker contra el gobierno mexicano ilustra exactamente el dilema. Un solo individuo, dos chatbots comerciales (Claude y ChatGPT) y nueve agencias gubernamentales comprometidas. La diferencia entre ataque y auditoría, en términos de código generado, es cero; la diferencia está en la intención del usuario, y eso ningún modelo puede verificarlo a priori. Los filtros de safety alignment funcionan con palabras clave y patrones de intención, lo que los hace evitables con prompts neutralmente formulados.Mi valoraciónLo que más me convence de este desenlace es que confirma una intuición que muchos teníamos pero que la postura pública de OpenAI dificultaba defender. Las herramientas Cyber con IA tienen capacidades duales reales y la decisión de quién accede no puede ser meramente técnica. Anthropic tenía razón estratégica en restringir Mythos, OpenAI lo está reconociendo implícitamente al copiar el modelo, y la convergencia es el resultado lógico de tomar el problema en serio. Lo que más me preocupa es la falta de reconocimiento explícito del cambio de postura por parte de Altman. La frase pública del 21 de abril sobre «fear-based marketing» sigue ahí, sin retractación. Eso es relevante no por orgullo personal sino por credibilidad institucional: cuando una compañía de IA pública contradice sus propias declaraciones sobre seguridad sin explicación, los reguladores pierden la capacidad de tomar en serio los compromisos públicos de la siguiente declaración. Para una industria que pide a los gobiernos confianza en su autorregulación, ese coste es alto. Lo más estructuralmente significativo es que la convergencia OpenAI-Anthropic crea un nuevo problema de gobernanza. Si los dos modelos punteros del mundo en capacidades Cyber están restringidos a usuarios verificados por las propias compañías, las decisiones sobre quién accede a tecnologías de seguridad ofensiva críticas las están tomando privadamente Anthropic y OpenAI. Sin marco regulatorio que defina criterios objetivos de acceso, sin auditoría externa de las decisiones de aprobación, sin recurso para defensores legítimos a quienes se les niegue acceso. Es exactamente el modelo que la regulación de control de armas ha pasado décadas evitando: discreción privada sobre tecnologías sensibles. La pregunta a 12 meses es si Estados Unidos o la UE intervendrán para crear un marco. La US Executive Order on AI y el AI Act europeo tienen disposiciones genéricas sobre IA de alto riesgo, pero nada específico sobre acceso a capacidades Cyber-ofensivas. La probabilidad de que esto cambie aumenta cada vez que hay otro caso documentado de IA usada en ataques significativos. Mi predicción: en 2027 vamos a tener alguna forma de licencia federal estadounidense para herramientas Cyber con IA de frontera, similar a las licencias de exportación de criptografía. Anthropic y OpenAI lo aceptarán porque, paradójicamente, una regulación clara reduce su exposición legal por decisiones discrecionales.Preguntas frecuentes¿Quién puede solicitar acceso a GPT-5.5 Cyber? Cualquier persona u organización puede aplicar a través del formulario en openai.com/form/enterprise-trusted-access-for-cyber/, pero deben enviar credenciales y especificar el uso previsto. OpenAI evalúa cada solicitud individualmente y consulta con el gobierno estadounidense para identificar usuarios legítimos.¿Por qué OpenAI cambia su postura tras criticar a Anthropic? OpenAI no ha reconocido el cambio explícitamente. La interpretación más probable es que las capacidades de GPT-5.5 Cyber han escalado lo suficiente como para justificar el mismo nivel de cautela que Anthropic aplicó a Mythos. Las capacidades incluyen pruebas de penetración, identificación y explotación de vulnerabilidades, y reverse engineering de malware.¿Es el modelo más restrictivo que el GPT-5.4-Cyber anterior? Sí, en la práctica. GPT-5.4-Cyber se posicionó como «miles de defensores verificados» en oposición a las «11 organizaciones» de Anthropic. GPT-5.5 Cyber adopta un modelo más cercano al de Mythos: aplicación individual, verificación, consulta con el gobierno. La filosofía pública ha cambiado en dos semanas.La noticia OpenAI restringe el acceso a GPT-5.5 Cyber tras criticar a Anthropic por hacer lo mismo con Mythos: la coherencia dura nueve días fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.