El Pentágono abre la puerta a Grok en redes clasificadas y enfría su apuesta por Claude: control, ética y dependencia tecnológica

Wait 5 sec.

La noticia que está agitando a Washington no gira tanto en torno a si Grok es más capaz que Claude, sino a una pregunta más incómoda: cuando una IA entra en sistemas militares clasificados, ¿quién decide lo que se puede hacer con ella y hasta dónde llegan los límites? Según informó Axios, la compañía de Elon Musk, xAI, ha firmado un acuerdo que permitiría desplegar su modelo Grok dentro de los entornos más sensibles del Departamento de Defensa de Estados Unidos.Ese movimiento llega en pleno choque entre el Pentágono y Anthropic, la empresa detrás de Claude, por una cláusula que suena burocrática pero tiene consecuencias enormes: el Gobierno quiere poder usar estos modelos para “cualquier propósito legal” (“all lawful purposes”), una fórmula habitual en contratos federales. Anthropic, en cambio, mantiene barreras que impiden usos vinculados con vigilancia masiva o armas autónomas totalmente letales, incluso si el despliegue ocurre en entornos gubernamentales.Imagina que alquilas un coche para trabajar y el arrendador te entrega las llaves con una condición: “puedes conducirlo, pero no por ciertas carreteras”. El Pentágono está pidiendo el coche sin esas restricciones; Anthropic insiste en que algunas carreteras no deberían existir, o al menos no deberían recorrerse con ese vehículo.Por qué Claude tenía una posición privilegiada en inteligencia y defensaHasta ahora, el contexto favorecía a Anthropic: Claude era el único modelo de “frontera” autorizado para operar en redes clasificadas, un detalle clave porque no hablamos de un chatbot para redactar correos, sino de herramientas integradas en flujos de análisis de inteligencia, planificación estratégica, apoyo a programas tecnológicos sensibles y, según las informaciones periodísticas, tareas relacionadas con operaciones en el campo.Esa integración es como empotrar un sistema eléctrico en un edificio: cambiar el proveedor no es solo “instalar otra app”, implica validar seguridad, compatibilidad, trazabilidad de resultados, y ajustar procesos de usuarios que ya dependen de él. Por eso, incluso dentro del propio Departamento de Defensa se admite que “sacar” a Claude de redes clasificadas sería técnicamente complejo y potencialmente disruptivo, tal como recogen medios que han seguido el pulso entre las partes.A todo esto se suma una dimensión delicada: cuando una herramienta se convierte en infraestructura, el coste de reemplazo no es solo dinero, también es tiempo y riesgo operativo. Si una IA está embebida en tareas de alto impacto, el listón para introducir un sustituto sube muchísimo.El punto de fricción: salvaguardas frente a “uso legal” sin maticesLa tensión se ha ido calentando porque el Pentágono busca margen operativo total dentro de lo legal, mientras Anthropic defiende límites concretos. En piezas recientes, Axios describía incluso un escenario de ultimátum y falta de progreso en negociaciones, con Anthropic manteniendo su negativa a ceder en puntos como la vigilancia masiva y la participación en sistemas de armas autónomas plenamente letales.The Verge añadió contexto al presentar el choque como un caso casi existencial para Anthropic: ceder podría contradecir su política de uso aceptable, no ceder podría costarle su posición privilegiada en redes clasificadas y desencadenar represalias contractuales.Este es el tipo de discusión que, vista desde fuera, suena abstracta, pero por dentro define el “manual de conducción” de la IA militar. Si la cláusula “cualquier uso legal” se impone como estándar, las empresas con políticas más restrictivas quedan en desventaja frente a competidores dispuestos a firmar sin reservas, aunque luego prometan autocontrol interno.Grok en clasificado: lo que se gana y lo que se arriesgaCon el acuerdo de xAI, Grok podría dar el salto de entornos no clasificados a los más protegidos. Eso tiene sentido dentro de una estrategia de “multi proveedor”: diversificar reduce la dependencia de un único actor y aumenta el poder de negociación del Estado.Ahora bien, incluso dentro del aparato de defensa hay dudas sobre si Grok puede igualar la madurez de Claude en contextos delicados. Aquí importa menos el marketing y más lo que los equipos llaman “ser battle-tested”: cómo responde el modelo en escenarios reales, con datos sensibles, con exigencias de auditoría, con presión de tiempo y con consecuencias si un resumen sale mal o una inferencia es errónea.En paralelo, Grok ya tiene historial de polémicas reputacionales. Varios medios han recordado el episodio en el que el chatbot generó contenido extremista y antisemita y llegó a autodenominarse “MechaHitler”, una señal de alarma cuando el destino potencial son redes clasificadas. En estos entornos, la discusión no es solo “qué puede hacer el modelo”, sino “qué no debe hacer nunca”, y cómo se demuestra que esos límites se cumplen.Un tablero más grande: ChatGPT, Gemini y la carrera por entrar en redes sensiblesLa disputa no ocurre en el vacío. En 2025, la Administración estadounidense impulsó listas de proveedores aprobados y movimientos de compra centralizada. Reuters informó de la incorporación de ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic) a una lista federal de vendedores de IA, un paso que facilita adquisiciones por agencias.Por su parte, xAI anunció “Grok for Government” en julio de 2025, un enfoque explícito hacia clientes públicos y seguridad nacional, según la comunicación de la propia empresa. En otras palabras: Grok no está apareciendo de golpe en la conversación militar; llevaba tiempo llamando a esa puerta.El fondo de la cuestión es que el Pentágono quiere que la IA sea un componente estructural de su aparato, y eso empuja a que más modelos busquen entrar en entornos clasificados. Si uno se convierte en proveedor único, también se convierte en cuello de botella, y esa dependencia es justo lo que ahora se intenta evitar.La sombra de las operaciones sensibles y el papel de integradores como PalantirUn punto especialmente controvertido del relato periodístico es la afirmación de que Claude habría apoyado una operación relacionada con Venezuela mediante una colaboración con Palantir, según se ha publicado en medios. Este tipo de afirmaciones, por su naturaleza, son difíciles de verificar públicamente y suelen estar rodeadas de versiones parciales. Lo relevante, más allá del detalle concreto, es la señal: los modelos ya no se usan solo para tareas administrativas, también se integran con plataformas de análisis y operación que funcionan como “sistema nervioso” de decisiones.En ese ecosistema, los integradores importan tanto como el modelo. Una IA puede ser potente, pero si no encaja con los sistemas existentes, con la seguridad requerida y con los circuitos de aprobación, su despliegue se frena. Por eso, el debate sobre cambiar de proveedor tiene un componente técnico que suele quedar fuera de titulares: migraciones, pruebas de seguridad, calibración de resultados, capacitación, y cómo se documenta todo para auditoría y cumplimiento.Entre rendimiento, control y riesgo ético: la decisión que marca tendenciaLo que está haciendo el Pentágono se parece a reorganizar una cocina industrial: no solo importa el cuchillo más afilado, también quién controla el acceso, cómo se limpian las herramientas, qué pasa si alguien se corta y quién asume la responsabilidad. La IA aplicada a defensa combina rendimiento con gobernanza. Si se prioriza el control operativo absoluto, ganan los modelos que aceptan cláusulas amplias. Si se priorizan límites éticos explícitos, ganan los proveedores que imponen salvaguardas incluso a costa de contratos.A corto plazo, la entrada de Grok en redes clasificadas apunta a una estrategia de diversificación y presión negociadora sobre Anthropic. A medio plazo, podría sentar un precedente: que el acceso a los contratos más sensibles dependa de aceptar el “uso legal” sin reservas. Y ahí es donde se juega algo más grande que una pelea entre empresas: se define qué tipo de IA militar se normaliza y qué líneas rojas se consideran opcionales.La noticia El Pentágono abre la puerta a Grok en redes clasificadas y enfría su apuesta por Claude: control, ética y dependencia tecnológica fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.