El día en que el Pentágono decidió que la ética era un estorbo

Wait 5 sec.

Hay momentos en los que una noticia aparentemente técnica revela, en realidad, una mutación profunda del sistema político. La reunión convocada por Pete Hegseth con Dario Amodei, CEO de Anthropic, no es una discusión contractual sobre doscientos millones de dólares, ni un desacuerdo menor sobre cláusulas de uso. Es algo mucho más serio: el intento explícito del Departamento de Defensa de forzar a una empresa de inteligencia artificial a eliminar sus últimas salvaguardas éticas para poder utilizar su modelo en vigilancia masiva doméstica y en armas que disparen sin intervención humana.El tono es inequívoco: «o juegas o te vas«, y no es una metáfora: la amenaza concreta es designar a Anthropic como «riesgo para la cadena de suministro», una etiqueta reservada normalmente para proveedores vinculados a potencias adversarias. Traducido al lenguaje real: la expulsión del ecosistema de defensa y la presión indirecta sobre cualquier empresa que trabaje con el Pentágono para que deje de utilizar Claude. El contexto importa. Anthropic firmó un contrato de doscientos millones de dólares con el Departamento de Defensa, y eso ha convertido a Claude en actualmente el único modelo de inteligencia artificial disponible en redes clasificadas del ejército estadounidense. La relación no es anecdótica: es estructural. Y se volvió aún más delicada tras la operación militar en Venezuela que terminó con la captura de Nicolás Maduro, donde Claude fue utilizado durante la operación activa a través de su integración con Palantir. Ese episodio cambió el tono. Cuando ejecutivos de Anthropic preguntaron si su modelo había sido empleado en operaciones con fuego real, el Pentágono interpretó la consulta como una forma de cuestionamiento moral. La respuesta fue endurecer la posición: si el modelo va a estar dentro, estará sin límites privados. Solo la ley, interpretada por supuesto por el propio aparato estatal, podrá marcar la frontera. La nueva Estrategia de Inteligencia Artificial para el Departamento de Guerra, publicada en enero, deja clara esa filosofía: todos los contratos deberán incorporar en 180 días cláusulas de «cualquier uso lícito», eliminando restricciones éticas autoimpuestas por las empresas proveedoras. El mensaje político es evidente: la inteligencia artificial «responsable» es la que no impide librar guerras. Aquí es donde el debate deja de ser tecnológico y se convierte en político. Anthropic ha aceptado eliminar prácticamente todas sus restricciones contractuales salvo dos: la prohibición de usar su modelo para la vigilancia masiva de ciudadanos estadounidenses y la negativa a permitir su uso en sistemas de armas completamente autónomos que puedan disparar sin intervención humana. Y esas son precisamente las dos líneas rojas que el Pentágono quiere borrar. No estamos hablando de escenarios futuristas. La vigilancia masiva ya existe: lo que cambia con modelos de frontera como Claude es la escala y la capacidad de inferencia. Incluso términos aparentemente claros como «vigilancia ilegal de ciudadanos estadounidenses» se vuelven elásticos cuando entran en juego interpretaciones jurídicas amplias y tecnología de análisis masivo. Un sistema capaz de procesar millones de comunicaciones, cruzar bases de datos financieras, biométricas y de geolocalización, y extraer patrones conductuales en tiempo real no solo identifica sospechosos: puede anticipar comportamientos, mapear redes sociales completas y etiquetar estados emocionales o tendencias políticas.La segunda línea roja es todavía más inquietante. El desarrollo de armas autónomas letales, es decir, sistemas capaces de identificar, seleccionar y destruir objetivos sin intervención humana directa, ya no es un debate académico. El Pentágono lleva tiempo avanzando en esa dirección, como analiza el Centre for International Governance Innovation al describir cómo Estados Unidos está impulsando de facto la era de las armas autónomas. El desplazamiento semántico desde «human-in-the-loop» hacia «human-on-the-loop» y finalmente «human-out-of-the-loop» es progresivo, pero claro: la supervisión humana pasa de decisoria a decorativa. El propio debate sobre quién debe establecer las reglas está ya sobre la mesa. Lawfare ha señalado que no debería ser el Pentágono ni las empresas privadas quienes definan unilateralmente el marco normativo de la IA militar, sino el Congreso. Sin embargo, ese debate apenas ha salido de círculos especializados.Lo verdaderamente preocupante no es sólo lo que se quiere hacer, sino cómo se está haciendo. No hay un gran debate parlamentario sobre si el ejército debería tener acceso sin restricciones a modelos capaces de vigilar a la población o de tomar decisiones letales autónomas. No hay una ley específica que regule el uso de modelos generativos en selección de objetivos militares. Las reglas se están definiendo en negociaciones contractuales entre un secretario de Defensa y directivos de Silicon Valley. Cuando la arquitectura normativa de tecnologías que afectan a la vida, la muerte y la privacidad de millones de personas se decide en reuniones a puerta cerrada bajo amenaza de sanciones industriales, la pregunta deja de ser técnica y se vuelve institucional. ¿Quién vigila a los vigilantes cuando el propio Estado amenaza con destruir a la empresa que intenta imponer límites? La situación se agrava porque otras grandes compañías tecnológicas ya han mostrado mayor disposición a flexibilizar sus salvaguardas para asegurar contratos gubernamentales, lo que distintos analistas han descrito como una peligrosa carrera en materia de límites y ética. Si una empresa se resiste por razones de principios, otra puede ocupar su lugar. De hecho, la xAI de Musk acaba de obtener acceso a los sistemas del Pentágono y podrá ser utilizada para el control de armas o para la vigilancia masiva. Y Anthropic acaba de anunciar que renuncia a su Safety Pledge, al que en su momento llevó a Dario Amodei a la portada de Time. Malos tiempos para la lírica. ¿Siguen siendo los Estados Unidos una democracia? Formalmente, sí. Sustantivamente, la cuestión es más incómoda. Una democracia no se define solo por elecciones periódicas, sino por la existencia de límites efectivos al poder coercitivo del Estado. Si ese poder aspira a integrar vigilancia predictiva masiva y violencia automatizada bajo supervisión opaca, la distancia entre democracia y estado policial se reduce peligrosamente. La cuestión no es si la inteligencia artificial debe emplearse en defensa nacional. La cuestión es quién decide sus límites y bajo qué mecanismos de control. Si la respuesta es «el propio aparato militar, sin supervisión externa efectiva», entonces el problema no es tecnológico. Es puramente democrático.