El Pentágono cita al CEO de Anthropic por el pulso sobre los límites de la IA en sistemas clasificados

Wait 5 sec.

El Departamento de Defensa de Estados Unidos ha llamado a Washington al director ejecutivo de Anthropic, Dario Amodei, para una reunión en el Pentágono centrada en un asunto que suele quedar oculto tras la palabra “innovación”: quién decide, y con qué condiciones, cómo se usa la inteligencia artificial cuando entra en el territorio de lo clasificado. Según informó The New York Times, el encuentro está previsto para el martes y lo encabezará el secretario de Defensa, Pete Hegseth, en un contexto de presión explícita de la Administración Trump para que las empresas reduzcan restricciones en sus modelos.La disputa no nace de cero. El año pasado, el Pentágono y Anthropic pactaron un contrato piloto de 200 millones de dólares. La relación parecía encaminada hasta que un memorando fechado el 9 de enero, firmado por Hegseth, pidió a las compañías de IA que eliminaran límites de uso. Ese texto forzó una renegociación, no tanto por la cifra económica como por el precedente: si el Gobierno quiere “caja negra” sin condiciones, o si las empresas pueden exigir reglas de seguridad vinculantes.El contrato de 200 millones y lo que realmente se negociaEn este tipo de acuerdos, el dinero es solo la capa visible. Lo decisivo es el alcance operativo: qué sistemas podrán usar el modelo, qué equipos lo integrarán y, sobre todo, qué frenos pueden mantenerse cuando el cliente es una institución con misiones de seguridad nacional. El Pentágono busca que el contrato le permita utilizar los modelos “como considere oportuno” siempre que la actividad sea legal, de acuerdo con personas informadas de las conversaciones citadas por The New York Times. Esa frase, aparentemente razonable, es como entregar las llaves de un coche con la condición de “conduce legalmente”: deja un margen enorme para decidir ruta, velocidad, horas y pasajeros.Anthropic, por su parte, estaría dispuesta a aflojar algunas de sus restricciones, pero pide guardarraíles claros para dos escenarios especialmente sensibles: la vigilancia masiva de ciudadanos estadounidenses y el despliegue de armas autónomas sin humanos “en el bucle”. Traducido a la vida cotidiana, su posición equivale a decir: “Te dejo usar el cuchillo en la cocina, pero no quiero que lo conviertas en un arma sin supervisión”. La discusión es menos filosófica de lo que parece: si el contrato no lo fija, el uso queda a criterio del usuario final y luego será muy difícil recortar capacidades ya desplegadas.El memorando del 9 de enero y el choque con la “cultura de seguridad” de las empresasLa tensión refleja dos culturas que chocan. En el sector privado, muchas empresas han construido lo que denominan una “safety stack”, una pila de capas técnicas y de políticas para limitar comportamientos y usos peligrosos de los modelos. En el sector público, especialmente en defensa, suele existir una preferencia por herramientas que puedan adaptarse a múltiples misiones sin depender de decisiones de terceros. El memorando de Hegseth empuja en esa dirección: menos restricciones, más flexibilidad operativa.Aquí aparece un matiz importante: el Pentágono, según el mismo reportaje, estaría dispuesto a permitir que las compañías mantengan provisiones de seguridad dentro de sus modelos, aunque el contrato exigiría que el Departamento pueda usar el sistema a su manera dentro de lo legal. Dicho así, la seguridad existe, pero no debe impedir el mandato del cliente. La pregunta es si esos límites son cosméticos o sustanciales. Un “freno” que se puede desconectar bajo presión se parece más a una recomendación que a una garantía.Por qué Anthropic está en el centro: acceso a redes clasificadasAnthropic no es una empresa cualquiera en este tablero: fue la primera autorizada a trabajar en redes militares clasificadas, siempre según The New York Times. Eso la coloca como caso de prueba. Si se acepta que su tecnología se use con condiciones estrictas, podría consolidarse un estándar de contratación donde el proveedor mantiene voz sobre usos delicados. Si se le fuerza a ceder, el mensaje al resto del mercado sería que la seguridad es negociable cuando el cliente es Defensa.Para Anthropic, el riesgo no es solo reputacional. Es también técnico y legal. El uso en entornos clasificados implica integración con flujos de información sensibles y una dependencia mayor del cliente, lo que puede volver más difícil auditar o limitar comportamientos. Para el Pentágono, el riesgo es el inverso: aceptar demasiadas condiciones podría impedir usos futuros todavía no definidos, algo que en defensa se considera un problema estratégico.La presión competitiva: xAI, Google y el efecto “si ellos firman, tú también”En paralelo, el Departamento de Defensa está avanzando acuerdos con otras empresas. Según personas briefed en las negociaciones citadas por The New York Times, el Pentágono ya habría firmado un acuerdo con xAI, la compañía de Elon Musk, y estaría cerca de cerrar otro con Google, responsable del modelo Gemini. Aunque Google y xAI no respondieron inmediatamente a solicitudes de comentario, la mera existencia de estas conversaciones funciona como herramienta de negociación: si otros proveedores aceptan determinadas condiciones, la Administración puede usarlos como palanca para presionar a quien se resista.Esto se parece a una negociación de telecomunicaciones en una comunidad de vecinos: si un proveedor ya ha cableado el edificio con ciertas cláusulas, el siguiente tiene menos margen para exigir condiciones distintas. En contratación pública, la comparación no es perfecta, pero el efecto psicológico y político es real: nadie quiere quedar como el actor que “bloquea” una capacidad considerada estratégica.“Humano en el bucle” y vigilancia: dos líneas rojas con lecturas distintasLas dos exigencias atribuidas a Anthropic son de las que generan titulares porque apelan a miedos comprensibles. La vigilancia masiva de ciudadanos estadounidenses evoca el uso de sistemas para analizar datos a gran escala, detectar patrones, identificar personas y cruzar señales. La cuestión no es si la actividad puede ser legal bajo ciertas autorizaciones, sino si debería diseñarse una herramienta que facilite esa escala por defecto.La otra línea roja, las armas autónomas sin supervisión humana, toca un debate global: hasta qué punto la IA puede tomar decisiones de vida o muerte. “Humano en el bucle” suena a simple interruptor, pero en la práctica implica diseño, tiempos de reacción, autoridad real para detener la acción y trazabilidad. No es lo mismo un humano que confirma cada paso, que un humano que solo recibe un aviso cuando el sistema ya ha actuado. Por eso, fijar definiciones en un contrato puede ser tan relevante como la propia tecnología.Lo que puede cambiar en el mercado de IA para defensaMás allá del caso concreto, lo que está en juego es una plantilla para futuros acuerdos. Si Defensa logra contratos que priorizan libertad operativa y tratan la safety stack como una capa negociable, veremos una aceleración de la adopción de modelos en más áreas internas, con menos control del proveedor sobre usos finales. Si, por el contrario, empresas como Anthropic consiguen que queden prohibidos ciertos usos o que existan mecanismos de bloqueo verificables, se abrirá una vía para una contratación “condicionada”, donde la seguridad se define como parte esencial del producto.Para el público general, el tema puede parecer lejano, pero acaba influyendo en cómo se normaliza la IA generativa en el Estado: qué límites se consideran razonables, quién los supervisa y cómo se hacen cumplir. La noticia, contada por The New York Times, es una instantánea de un conflicto que no se resolverá con una sola reunión: el equilibrio entre capacidad, control y responsabilidad se está escribiendo ahora, cláusula a cláusula.La noticia El Pentágono cita al CEO de Anthropic por el pulso sobre los límites de la IA en sistemas clasificados fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.