EE UU no se fía de Anthropic para la guerra: el Gobierno finalmente le cierra la puerta

Wait 5 sec.

Llevamos tiempo viendo cómo las grandes empresas tecnológicas se acercan al sector militar, pero la cosa se complica bastante cuando los programadores deciden poner límites éticos. El pulso entre los creadores de la inteligencia artificial Claude y el gobierno estadounidense acaba de llegar a los tribunales, dejándonos una advertencia muy clara: o asumes las reglas del Pentágono sin rechistar, o te quedas fuera.Según la documentación judicial que ha estado revisando la gente de Wired, el Departamento de Justicia ha decidido mantener su veto a Anthropic. Quieren seguir tratándolos oficialmente como un riesgo para la seguridad, una etiqueta que, si ningún juez lo impide, les bloqueará el acceso a los contratos de defensa y les hará perder miles de millones de dólares este mismo año. El problema de depender de una IA con líneas rojasLos abogados del Estado han dicho en los juzgados de San Francisco que aquí no se vulnera la Primera Enmienda, básicamente porque la libertad de expresión no te da derecho a exigirle al gobierno que te contrate. Tampoco creen que perder dinero sea una excusa válida para deshacer el bloqueo.El verdadero motivo detrás de esta prohibición, tal y como defiende el secretario de Defensa, Pete Hegseth, es que temen un sabotaje en sus propios sistemas. Los informes oficiales llegan a tratar a la firma como un contratista rebelde, ya que los mandos militares no se fían en absoluto de lo que puedan hacer los programadores a largo plazo.El peligro que ven desde el Pentágono es que estos algoritmos son muy fáciles de manipular desde dentro. Piensan que la desarrolladora podría apagar su inteligencia artificial en medio de una misión si creen que los militares están cruzando sus líneas rojas corporativas, dejando a las tropas totalmente tiradas y a ciegas durante un combate activo.Por su parte, la tecnológica tiene muy claras sus reticencias. Sus creadores siempre han dicho que los modelos actuales no son fiables para controlar armamento y se han negado en rotundo a facilitar la vigilancia masiva de ciudadanos. Es un dilema moral bastante habitual que suele alejar a los mejores ingenieros de Silicon Valley de los proyectos puramente militares.Varios expertos legales creen que este veto es una represalia en toda regla por mantener esos principios éticos. El problema para la empresa es que, aunque tengan la razón sobre el papel, los jueces suelen fallar a favor del Estado casi por inercia siempre que los abogados del gobierno ponen la carta de la seguridad nacional sobre la mesa.Lo más irónico de todo este lío es que ahora mismo las fuerzas armadas dependen de ellos al cien por cien. A día de hoy, Claude es el único modelo autorizado en los sistemas clasificados del ejército, y lo están usando intensivamente para procesar datos vitales a través del conocido software de análisis de Palantir.Como hay misiones reales en marcha, el gobierno no puede simplemente desenchufar los servidores y buscar a otro proveedor de la noche a la mañana. Para salir de este atasco operativo, varias agencias federales ya están preparando el terreno para mudarse a las alternativas de Google, OpenAI y xAI, con la intención de sustituir por completo el servicio de aquí a unos meses.La empresa está intentando recuperar la normalidad comercial a través de dos demandas simultáneas. Para que el proceso avance en los tribunales, tienen de plazo hasta este viernes para contestar a los argumentos del gobierno, justo antes de que la jueza Rita Lin se siente a escuchar a las dos partes en la vista que tienen programada para el próximo martes.Lo que más llama la atención de este caso es cómo se ha posicionado la industria. Mientras gigantes como Microsoft, varios sindicatos federales y algunos exmilitares han movido ficha para respaldar a la creadora de Claude, la administración estadounidense se ha presentado en el juzgado sin que nadie ajeno al gobierno haya firmado un solo papel apoyando su decisión.