Google firma acuerdo secreto con el Pentágono para usar su IA en operaciones militares clasificadas

Wait 5 sec.

Google acaba de firmar un acuerdo con el Pentágono que ha puesto patas arriba la conversación sobre los límites de la inteligencia artificial. Y la historia detrás de este trato es mucho más interesante que un simple contrato entre empresas.Porque para entender lo que hizo Google, primero hay que entender lo que se negó a hacer Anthropic.Cuando una empresa de IA le dijo «no» al ejércitoTodo empezó hace unos meses. El Departamento de Defensa de los Estados Unidos venía presionando a las grandes compañías de IA para que pusieran sus modelos a disposición en redes clasificadas — sin restricciones, para «cualquier uso legal».Anthropic, la empresa creadora del asistente Claude, aceptó negociar… pero con dos condiciones que no estaba dispuesta a ceder.No quería que su IA se usara para vigilancia masiva de ciudadanos estadounidenses. Y tampoco para sistemas de armas autónomas, esas que toman decisiones de ataque sin intervención humana.Suena razonable, ¿verdad? Pues al Pentágono no le pareció.La etiqueta que nadie quiereLa respuesta del Departamento de Defensa fue fulminante. Clasificó a Anthropic como un «riesgo en la cadena de suministro».Eso puede sonar burocrático, pero tiene consecuencias muy reales. Esa etiqueta normalmente se reserva para adversarios extranjeros — países o entidades que representan una amenaza para la seguridad nacional.Aplicarla a una empresa estadounidense, simplemente porque se negó a quitar sus filtros de seguridad, es… cuando menos, inusual.Anthropic no se quedó callada. Demandó al Pentágono en marzo de 2026, presentando dos querellas — una en California y otra en Washington D.C. — argumentando que la designación era ilegal. Un juez le dio la razón de forma provisional y concedió una medida cautelar mientras el caso avanza.El asunto sigue en los tribunales.Google entra al juego — sin hacer muchas preguntasAquí es donde Google hace su aparición. Y lo hace con un acuerdo que, según reportes del Wall Street Journal y The Information, permite al Pentágono usar los modelos de Gemini para «cualquier propósito gubernamental legal» en redes clasificadas.¿Qué tipo de trabajo se hace en esas redes? Planificación de misiones, selección de objetivos en operaciones militares, análisis de inteligencia sensible. No es precisamente lo que uno imagina cuando usa el asistente de Google para buscar una receta.El contrato sí incluye algunas líneas que dicen que Google no tiene intención de que su IA se use para vigilancia masiva o armas autónomas. Pero — y aquí está el detalle importante — no queda claro si esas cláusulas son legalmente vinculantes o simplemente declaraciones de buenas intenciones.Hay una diferencia enorme entre las dos cosas.No están solos: OpenAI y xAI ya habían firmado antesGoogle no es el primero en esta fila. OpenAI ya había cerrado su propio acuerdo con el Departamento de Defensa a finales de febrero, apenas horas después de que la administración Trump ordenara a las agencias federales dejar de usar la tecnología de Anthropic.xAI, la empresa de Elon Musk, también firmó un trato similar.Con Google sumándose, el panorama quedó así: Anthropic excluida del grupo de proveedores, y tres grandes compañías — OpenAI, xAI y Google — compitiendo por llenar ese espacio con distintos niveles de restricciones.Según The Next Web, el acuerdo de Google parece darle al Pentágono la mayor discrecionalidad de todos.Los contratos pueden valer hasta $200 millones de dólares cada uno.Fuente: The GuardianThe post Google firma acuerdo secreto con el Pentágono para usar su IA en operaciones militares clasificadas first appeared on PasionMóvil.