¿Guerras cada vez más algorítmicas?

Wait 5 sec.

Durante años hemos hablado de la inteligencia artificial como una herramienta para optimizar procesos empresariales, personalizar publicidad o escribir correos más rápidos. Pero los acontecimientos recientes en Venezuela e Irán apuntan a otra dirección mucho menos cómoda: la progresiva integración de modelos comerciales de inteligencia artificial en operaciones militares reales. No como un complemento anecdótico, sino como parte del sistema nervioso de la decisión. Un artículo reciente del Wall Street Journal, titulado «U.S. strikes in Middle East use Anthropic, hours after Trump ban”, revela que Claude, el modelo de Anthropic, fue utilizado por el U.S. Central Command para evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla, incluso horas después de que Donald Trump anunciara que el gobierno federal dejaría de trabajar con la compañía. El artículo subraya hasta qué punto estas herramientas están ya incrustadas en los flujos operativos: no son experimentos marginales, sino componentes integrados en misiones activas. La misma información apunta a que Claude también fue empleado en la operación que culminó con la captura de Nicolás Maduro, y que su sustitución no será inmediata debido a su integración en plataformas de terceros como Palantir o AWS. Este detalle es clave. No estamos ya ante un simple «uso de un chatbot«, sino ante toda una arquitectura: modelos de lenguaje avanzados desplegados en entornos cloud certificados, integrados en plataformas de análisis masivo de datos, conectados a repositorios clasificados y a procesos de planificación operativa. En paralelo, el debate político se ha intensificado. Según The Washington Post, Anthropic se negó a aceptar condiciones contractuales que implicaban permitir el uso de sus modelos en cualquier escenario «legal», incluyendo potencialmente armas autónomas o vigilancia masiva, lo que tensó su relación con el Pentágono. La presión del Departamento de Defensa para no limitar por contrato los usos militares de la inteligencia artificial enmarca el conflicto como un precedente sobre hasta dónde puede o debe llegar el Estado cuando incorpora modelos privados a su aparato coercitivo. En este contexto emerge el llamativo «discombobulator«, la supuesta «arma secreta» que, según Trump, habría dejado inoperativos los sistemas de vigilancia venezolanos. Sin embargo, análisis recogidos por medios como CNN sugieren que probablemente se trate de una etiqueta grandilocuente (y abssurda) para describir una combinación de capacidades ya conocidas: ciberoperaciones para degradar defensas, guerra electrónica para interferir radares y comunicaciones, y eventualmente sistemas de energía dirigida o acústicos. Más que un artefacto misterioso, el término parece funcionar como una narrativa simplificadora de un ecosistema tecnológico complejo. Lo verdaderamente transformador no es la existencia de guerra electrónica, porque eso lleva décadas funcionando, sino su acoplamiento con inteligencia artificial generativa capaz de sintetizar enormes volúmenes de información, proponer hipótesis, construir escenarios alternativos y asistir en la priorización de objetivos. Cuando un modelo como Claude participa en la identificación de blancos o en la simulación de respuestas enemigas, no está «apretando el botón», pero sí está moldeando el espacio de decisión. Y ese es un poder sutil pero decisivo. El discurso oficial insiste en que siempre hay «human in the loop». Pero si la información llega ya filtrada, resumida y jerarquizada por un modelo entrenado sobre correlaciones estadísticas, el margen real de deliberación puede estrecharse. El riesgo no es una inteligencia artificial autónoma disparando misiles a diestro y siniestro, sino una infraestructura algorítmica que acelera el ciclo OODA (Observar–Orientar–Decidir–Actuar) hasta un punto en el que la reflexión estratégica ya se convierte en un lujo. En el fondo, la gran pregunta no es si existe un arma con un nombre extravagante. La pregunta es si estamos aceptando, sin deliberación democrática alguna, que el sistema nervioso de la guerra se externalice a un ecosistema de proveedores privados, modelos opacos y plataformas de integración cuyo incentivo natural es el despliegue, la dependencia y el lock-in. Y, cuando eso ocurre, la línea roja no es la autonomía total del disparo: la línea roja es mucho más temprana, y mucho más silenciosa. Es el momento en que dejamos que una máquina y la empresa que la opera participen en la construcción misma de la realidad sobre la que decidimos a quién atacar y cómo. Y esa, más que cualquier arma con nombre estrafalario, es la verdadera historia.