¿Y si la inteligencia artificial no fuera de Silicon Valley, sino del Estado… o de varios Estados?

Wait 5 sec.

Hay ideas que en Estados Unidos suenan automáticamente a herejía, casi como si soltases una blasfemia salvaje en medio de una convención libertaria. Proponer una inteligencia artificial pública, nacional o incluso multinacional, es una de ellas. Allí, donde una parte significativa del debate tecnológico sigue atrapada en la fe casi religiosa en el mercado, la simple posibilidad de que una capacidad estratégica como la inteligencia artificial pueda concebirse como infraestructura pública provoca escalofríos. Fuera de ese marco ideológico, sin embargo, la cuestión empieza a parecer bastante menos extravagante. Si aceptamos sin demasiados problemas que haya sanidad pública, educación pública, transporte público o bibliotecas públicas, ¿por qué habría de ser impensable una inteligencia artificial pública? ¿Por qué tendríamos que resignarnos a que una tecnología con un impacto potencialmente estructural sobre la economía, la administración, la educación, la ciencia o la defensa quede exclusivamente en manos de un puñado de compañías privadas estadounidenses? La discusión no surge de la nada. Bruce Schneier y Nathan Sanders han defendido recientemente que Canadá debería apostar por una inteligencia artificial pública propia, construida como infraestructura nacional y orientada al interés general, no a la extracción de rentas ni a la lógica del crecimiento infinito. Su argumento no es meramente identitario ni una variante tecnológica del patriotismo económico. Es algo más interesante: la constatación de que, si la inteligencia artificial va a convertirse en una capa esencial de coordinación social, dejarla en manos de plataformas privadas extranjeras equivale a privatizar una parte creciente de la capacidad de decisión colectiva. En su planteamiento, esa inteligencia artificial pública podría servir para salud, educación, empleo, transporte o administración, y hacerlo bajo criterios de transparencia y supervisión democrática, no bajo los incentivos opacos de una empresa con accionistas, rondas de financiación y acuerdos geopolíticos propios. Lo verdaderamente incómodo de esta discusión es que llega justo cuando las grandes compañías pretenden vendernos la idea contraria: que la soberanía tecnológica de un país puede externalizarse cómodamente a través de acuerdos con ellas. El programa OpenAI for Countries se presenta, por ejemplo, como una forma de ayudar a los países a desplegar inteligencia artificial supuestamente «democrática», pero el propio planteamiento deja claro que se articula en coordinación con el gobierno estadounidense. Es decir, no estamos hablando de soberanía en el sentido fuerte del término, sino de soberanía delegada, supervisada y, en última instancia, subordinada a la arquitectura política, regulatoria y estratégica de Estados Unidos. Llamar a eso soberanía es como llamar dieta mediterránea a una hamburguesa con una aceituna encima. Canadá, de hecho, ya tiene una base material para explorar otra vía. Su Canadian Sovereign AI Compute Strategy prevé inversiones públicas y comerciales para aumentar la capacidad doméstica de computación, proteger datos e impulsar soluciones desarrolladas en el país. El problema, como apuntan Schneier y Sanders, es que una estrategia de computación soberana puede quedarse en una mera subvención indirecta a proveedores privados si no se acompaña de una decisión política más ambiciosa sobre propiedad, gobernanza y acceso. Invertir dinero público para terminar dependiendo de modelos cerrados, APIs ajenas y condiciones de uso fijadas en otro país no es soberanía: es simplemente alquilar dependencia a gran escala. Lo interesante es que ya existen precedentes que desmontan la objeción de que todo esto sería inviable, caro, inferior o técnicamente fantasioso. Suiza ha impulsado Apertus, un modelo abierto, multilingüe y financiado desde instituciones públicas y académicas, desarrollado por EPFL, ETH Zurich y el Swiss National Supercomputing Centre. No compite en la carrera testosterónica por la «superinteligencia», pero sí demuestra algo mucho más importante: que puede construirse una inteligencia artificial útil, abierta, auditable y alineada con prioridades públicas sin aceptar como dogma la opacidad corporativa ni la escalada presupuestaria de Silicon Valley. La propia descripción del proyecto subraya su vocación de transparencia, diversidad lingüística y apertura. Schneier y Sanders añaden que precisamente ahí está el cambio de paradigma: tratar la inteligencia artificial como infraestructura pública, no como mercancía privada. Además, esta idea no es una ocurrencia marginal, sino una línea de reflexión que empieza a aparecer en espacios muy serios. La OCDE habla ya de «infraestructuras públicas de inteligencia artificial» y plantea vías de intervención pública en computación, en datos y en modelos. Su enfoque es sensato porque no propone imitar ciegamente el gasto descomunal de los laboratorios privados, sino identificar capas del ecosistema donde la provisión pública puede reducir dependencias y corregir la concentración de poder. Es decir, no se trata de montar un clon estatal de OpenAI para jugar a ser Sam Altman con dinero del contribuyente, sino de construir capacidades estratégicas allí donde el mercado está produciendo un oligopolio con unos efectos políticos evidentes. Pero quizá la idea más interesante no sea la de una inteligencia artificial nacional, sino la de una inteligencia artificial verdaderamente multinacional. Porque si algo caracteriza el momento actual es la deriva hacia una carrera armamentística tecnológica en la que Estados Unidos, China y, en menor medida, Europa compiten por dominar la próxima generación de modelos. La lógica es la de siempre: quien controla la tecnología controla el poder económico, militar y cultural asociado a ella. Sin embargo, también podríamos imaginar otro escenario menos cínico, sin caer necesariamente en ingenuidades lennonianas: que varios países decidieran colaborar para crear una infraestructura de inteligencia artificial abierta, compartida y gobernada colectivamente. No sería, en realidad, una idea completamente nueva. Internet nació en buena medida de colaboraciones académicas internacionales. El CERN es un ejemplo de ciencia multinacional financiada colectivamente. El propio sistema de navegación Galileo de la Unión Europea es una infraestructura tecnológica pública construida entre múltiples estados. Si esos modelos han funcionado para la física de partículas, para la navegación por satélite o para la investigación científica, ¿por qué no podrían funcionar para la inteligencia artificial? Imaginemos por un momento lo que podría surgir de un consorcio global de inteligencia artificial en el que participaran países con tradiciones distintas pero valores compatibles: Europa aportando regulación y diversidad lingüística, Canadá experiencia en investigación en inteligencia artificial, Japón y Corea su potencia industrial, los países nórdicos su tradición de transparencia institucional, India su escala demográfica y talento tecnológico, o incluso países del sur global aportando perspectivas culturales y lingüísticas que hoy están prácticamente ausentes en los grandes modelos. El resultado no sería necesariamente el modelo más grande ni el más espectacular desde el punto de vista del marketing, pero podría ser el más plural, el más auditable y el más alineado con el interés público global.Además, un proyecto de ese tipo podría romper uno de los problemas más graves de la inteligencia artificial actual: su profunda asimetría cultural. Hoy, la mayoría de los modelos reflejan inevitablemente los sesgos lingüísticos, políticos y culturales de los países y empresas que los entrenan. Una inteligencia artificial construida mediante cooperación internacional podría incorporar deliberadamente una diversidad mucho mayor de datos, perspectivas y contextos, convirtiéndose en algo más parecido a una infraestructura cognitiva global que a un producto exportado desde Silicon Valley.Por supuesto, todo esto suena peligrosamente idealista. La geopolítica contemporánea no parece especialmente inclinada hacia la cooperación desinteresada, y la tentación de utilizar la inteligencia artificial como instrumento de poder estratégico es enorme. Pero precisamente por eso la idea merece discutirse. Porque si la única narrativa posible es la de una carrera tecnológica en la que cada bloque intenta aplastar al otro, el resultado previsible será una fragmentación tecnológica del mundo en ecosistemas incompatibles, cada uno dominado por sus propias corporaciones y agendas políticas.Y quizá la pregunta más interesante sea otra: ¿de verdad es más realista confiar el futuro cognitivo del planeta a media docena de empresas privadas que a una arquitectura de cooperación pública entre países? La primera opción es la que tenemos ahora mismo, y ya estamos viendo sus límites. La segunda exigiría voluntad política, instituciones sólidas y una visión a largo plazo que escasea en la política contemporánea, pero que no es técnicamente imposible. De hecho, probablemente sería más fácil que muchas de las megainfraestructuras que ya hemos construido colectivamente.En realidad, la discusión sobre la inteligencia artificial pública, nacional o multinacional, no trata realmente sobre algoritmos ni sobre GPUs. Trata sobre quién controla la infraestructura cognitiva del siglo XXI. Si será una capa pública, plural y supervisada democráticamente, o si quedará en manos de un pequeño número de plataformas privadas con incentivos comerciales y ambiciones geopolíticas propias. La cooperación internacional en torno a una inteligencia artificial pública no resolvería automáticamente todos los problemas, pero al menos abriría la puerta a algo que hoy parece casi revolucionario: que una tecnología fundamental para el futuro de la humanidad se diseñe deliberadamente para beneficiar a esa humanidad, y no únicamente a quienes logren dominar primero el mercado. Y sí, quizá suene un poco utópico. Pero comparado con la alternativa actual, tampoco parece la idea más descabellada del mundo.