Por negarse a armar IA autónoma, el Pentágono le cierra la puerta a Anthropic

Wait 5 sec.

Hay noticias que uno lee y dice «espera, ¿esto está pasando de verdad?» Esta es una de ellas.El Pentágono acaba de etiquetar oficialmente a Anthropic —la empresa creadora de la IA Claude— como un riesgo en la cadena de suministro. Suena técnico, pero lo que significa en la práctica es brutal: los contratistas del gobierno ya no pueden usar tecnología de Anthropic en proyectos militares. Con efecto inmediato.Y sí, Anthropic es una empresa americana. No china. No rusa. Americana.¿Qué es eso de «riesgo en la cadena de suministro»?Hasta ahora, esa etiqueta era un arma reservada para adversarios extranjeros. El caso más famoso fue el de Huawei, la gigante tecnológica china que Estados Unidos fue expulsando poco a poco de sus redes militares y comerciales.Aplicarle esa misma etiqueta a una empresa con sede en San Francisco es… poco habitual. Por decirlo suave.En términos prácticos, los vendedores y contratistas de defensa ahora tienen que certificar que no usan los modelos de Claude en su trabajo con el Pentágono. Lockheed Martin, por ejemplo, ya está en proceso de retirar la tecnología de Anthropic de sus sistemas.¿Y por qué llegaron a esto?La pelea lleva meses cocinándose. El Departamento de Defensa —que la administración Trump rebautizó como «Departamento de Guerra», en serio— quería que Anthropic firmara un contrato que le diera acceso a Claude para «todos los usos legítimos». Sin restricciones.Anthropic dijo que no. Y se plantó.El CEO Dario Amodei fue muy claro en sus razones. La empresa tiene dos líneas rojas que no estaba dispuesta a cruzar bajo ningún concepto: que Claude sea usado para armas autónomas totalmente independientes y para vigilancia masiva de ciudadanos estadounidenses.El argumento de Amodei es sólido: sin los controles adecuados, las armas autónomas no pueden ejercer el tipo de juicio que un militar entrenado sí puede.Y en cuanto a la vigilancia masiva… bueno, la IA puede construir perfiles de toda una población cruzando datos que individualmente parecen inofensivos. Eso, aunque técnicamente «legal», viola el espíritu de la Constitución.El Pentágono respondió que esas preocupaciones ya estaban cubiertas por la ley y que no aceptarían condiciones impuestas por una empresa privada. El diálogo se rompió.El memo que lo complicó todoJusto en medio de esta crisis, el sitio The Information publicó un memo interno de Amodei —escrito el viernes anterior— donde el CEO sugería que parte del problema era que Anthropic no había dado «elogios al estilo dictatorial» a Trump.Ese párrafo explotó en redes. Los inversionistas de Anthropic entraron en modo pánico. Y Amodei tuvo que pedir disculpas públicamente por la filtración.Para rematar, el Chief Technology Officer del Pentágono, Emil Michael, salió a decir en X que no hay ninguna negociación activa con Anthropic. Contradiciéndose directamente con lo que Amodei había dicho horas antes.¿Qué pasa con las empresas que ya usan Claude?Aquí viene el matiz importante, y Amodei se encargó de aclararlo rápido: la restricción aplica solo al uso de Claude como componente directo de contratos con el Departamento de Defensa. No es un bloqueo total.Microsoft, por ejemplo, revisó la designación con sus abogados y concluyó que Claude puede seguir disponible para sus clientes a través de plataformas como Microsoft 365, GitHub o Azure AI Foundry — siempre que no sea para trabajo de defensa.Fuente: AnthropicThe post Por negarse a armar IA autónoma, el Pentágono le cierra la puerta a Anthropic first appeared on PasionMóvil.