La relación entre el Departamento de Guerra de Estados Unidos y una de las empresas más influyentes del sector de la inteligencia artificial ha saltado por los aires. El Pentágono ha decidido romper su contrato de colaboración con Anthropic después de que la compañía se negara a autorizar el uso de su tecnología en sistemas militares capaces de decidir objetivos de forma autónoma, sin intervención humana.La ruptura llega apenas unos meses después de que ambas partes firmaran, en julio, un acuerdo millonario para incorporar la tecnología más avanzada de la empresa al Departamento de Defensa estadounidense.Discrepancia en los límites éticosEl detonante ha sido el desacuerdo sobre los límites éticos del uso militar de la inteligencia artificial. Según la compañía, su posición siempre ha sido clara: no permitir que sus modelos participen en decisiones operativas directas ni en el desarrollo de armas completamente autónomas."No creemos, ni nunca hemos creído, que sea responsabilidad de Anthropic ni de ninguna empresa privada participar en la toma de decisiones operativas; esa es la función de las fuerzas armadas", ha señalado el director ejecutivo de la empresa, Dario Amodei.La decisión del Pentágono ha ido más allá de la cancelación del contrato. El Departamento de Guerra ha designado a la empresa como "un riesgo para la cadena de suministro de Estados Unidos", una etiqueta que obliga a los contratistas militares a certificar que no utilizan los modelos de inteligencia artificial de la compañía, incluido su chatbot Claude, en contratos vinculados con Defensa.Anthropic ha confirmado que recibió la notificación oficial el pasado miércoles y ha anunciado que impugnará la decisión ante los tribunales. "No creemos que esta acción sea legalmente válida y no vemos otra opción que recurrirla", ha afirmado Amodei, quien subraya que la medida tiene un alcance limitado y solo afecta al uso directo de su tecnología dentro de contratos con el Departamento de Guerra."Eficiencia operativa excelente"El choque refleja la creciente importancia de la inteligencia artificial en el ámbito militar. Estas herramientas permiten procesar enormes cantidades de datos en tiempo real y mejorar la toma de decisiones sobre el terreno.El experto en inteligencia artificial José Luís Garde resume su potencial en combate: "Son capaces de desarrollar grandes procesamientos y permiten tomar decisiones en el terreno con una eficiencia operativa excelente".La tecnología puede aplicarse en numerosos ámbitos dentro de la defensa, desde el análisis de inteligencia hasta la protección de infraestructuras o el ciberataque. Pero el debate surge cuando se plantea que las máquinas puedan decidir por sí mismas objetivos militares."El problema es para qué lo quieren utilizar""El problema es para qué lo quieren utilizar porque la IA hace lo que programa", advierte el analista de inteligencia artificial y ciberseguridad Fernando Corcho, que menciona aplicaciones como sistemas de tiro, protección de infraestructuras críticas o ataques cibernéticos.EEUU ya ha usado IA en Venezuela e IránWashington ya ha empleado herramientas de inteligencia artificial en operaciones recientes y en el actual conflicto con Irán, aunque el alcance concreto de estas tecnologías no ha sido detallado públicamente.El secretario de Guerra, Pete Hegseth, ha defendido la posición del Pentágono asegurando que el departamento necesita pleno acceso a la tecnología. "El Departamento de Guerra debe tener acceso total e irrestricto a los modelos de Anthropic para cualquier propósito lícito en defensa de la República", ha declarado.Para algunos expertos, la disputa refleja un cambio profundo en la forma de entender la guerra. "En la guerra del futuro no va a ganar el que tenga más armas; va a ganar el que tenga mejor capacidad de uso de la inteligencia artificial", afirma Garde.El pulso entre el gobierno estadounidense y la empresa tecnológica se produce además en un contexto de competencia internacional. Países como China están acelerando el desarrollo militar de sistemas basados en inteligencia artificial, una carrera estratégica en la que Washington no quiere quedarse atrás.Los peligros del uso de la IAEl propio Amodei ha advertido en varias ocasiones sobre los riesgos de esta tecnología. "Me preocupa el comportamiento autónomo de los modelos de IA y su potencial de uso indebido por parte de individuos y gobiernos", ha señalado.Al mismo tiempo, el directivo defiende que la llegada de sistemas cada vez más potentes obligará a una cooperación estrecha entre empresas tecnológicas y gobiernos para evitar usos peligrosos."Necesitamos colaborar entre empresas y gobiernos para gestionar mejor esta época de disrupción y brindar prosperidad sin contratiempos" ha afirmado.Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad en nuestro perfil de Google.Puedes ver el informativo completo 'Noticias 2' en Atresplayer.