La inteligencia artificial ya está configurando el futuro… ¿por qué son tan pocos los que deciden sobre ese futuro?

Wait 5 sec.

La cuestión no es frenar el desarrollo de la inteligencia artificial. Se trata de decidir, en público, qué inteligencia artificial queremos y en qué condiciones.En las salas de juntas de Silicon Valley, un pequeño grupo de directivos está tomando en silencio decisiones que moldearán la vida de miles de millones de personas. Y la mayoría no sabremos cuáles fueron esas decisiones hasta que sea demasiado tarde para cambiarlas. En julio, la Casa Blanca publicó «America’s AI Action Plan«, un documento de 28 páginas que suena a política industrial para una nueva carrera armamentística. Enterrado en su Pilar I aparece una línea que deja claro hacia dónde se encamina la política estadounidense: revisar el marco de gestión de riesgos de inteligencia artificial de NIST para eliminar las referencias a desinformación, diversidad, equidad, inclusión y cambio climático. Cuando los gobiernos empiezan a tachar esas palabras por diseño, es razonable preguntarse quién está fijando los términos de nuestro futuro tecnológico —y en beneficio de quién.No es solo retórica. El mismo plan presume de deshacer la orden de IA de la administración anterior, aflojar la supervisión y acelerar la infraestructura y la energía para centros de datos. Reconfigura la inteligencia artificial ante todo como una carrera geopolítica que hay que «ganar», no como un sistema social que hay que gobernar. Es una perspectiva menos de tutela y más de cerrar acuerdos, un estilo de gobierno que trata la política pública como si fuese un term sheet. Y ese encuadre importa: cuando el objetivo de la política es la velocidad y la dominación, la rendición de cuentas se convierte en un «nice-to-have».Europa ha elegido una secuencia completamente distinta: primero poner barandillas, y luego escalar. La Ley de inteligencia artificial de la UE entró en vigor en agosto de 2024 y va imponiendo obligaciones hasta 2026, con una aplicación diseñada en torno al riesgo. ¿Imperfecta? Sin duda. Pero el mensaje es inequívoco: deben ser las instituciones democráticas —no solo la comunicación corporativa— las que definan los usos aceptables, las obligaciones de información y las responsabilidades antes de que la tecnología esté en todas partes.Mientras tanto, el centro de gravedad de la inteligencia artificial reside en un puñado de empresas que controlan el cómputo, los modelos y la distribución. Pensemos en el cómputo —la capacidad acelerada (tiempo de GPU/TPU) necesaria para entrenar y ejecutar la inteligencia artificial moderna—, en los modelos y en la distribución. Los analistas siguen situando la cuota de Nvidia en aceleradores de IA en torno al 90%, y los hiperescaladores bloquean capacidad con años de antelación. Esa escasez determina quién puede experimentar, quién no, y quién paga a quién por el acceso.Cuando el jefe del Estado aborda la política tecnológica como un banquero de inversión, esas negociaciones no van sobre el interés público; van de maximizar un acuerdo, a menudo para las arcas del Estado y, a veces, para el capital político.La opacidad agrava el problema. El propio informe técnico de GPT-4 de OpenAI se niega a revelar los datos de entrenamiento, el tamaño del modelo o el cómputo utilizado, alegando competencia y seguridad. Piense lo que piense de esa justificación: se nos pide aceptar sistemas con consecuencias mientras seguimos, en gran medida, a ciegas respecto a lo que llevan dentro. “Confíe en nosotros” no es una forma de gobierno.Si quiere un ejemplo pequeño pero elocuente de cómo las decisiones privadas se desbordan hacia la vida pública, basta ver lo que ocurrió cuando OpenAI lanzó una voz coqueta llamada Sky que muchos pensaron que sonaba igual que Scarlett Johansson. Tras la reacción pública, la compañía pausó esa voz. Ese límite cultural no lo marcó un regulador ni un tribunal, sino un equipo de producto, un ciclo de comunicación de crisis y una decisión corporativa. Mucho poder para un grupo muy pequeño de personas.El poder también se ve en la factura de la luz. Los últimos informes ambientales de Google vinculan un aumento del 48% de las emisiones de gases de efecto invernadero desde 2019 al crecimiento de los centros de datos para inteligencia artificial, y documentan 6.100 millones de galones de agua utilizados en 2023 para refrigeración; el análisis de ciclo de vida de Mistral va más allá, estimando energía y agua por consulta en sus modelos. Cada «pregúntale al modelo» deja huella: multiplíquelo por miles de millones y no podemos fingir que es gratis, por muy negacionista del cambio climático que uno sea.Así que sí, Estados Unidos está «ganando la carrera»… para concentrar las decisiones que afectan a la expresión, el empleo, la educación y el medio ambiente en un círculo diminuto de consejos de administración. El resultado es un déficit democrático. El público queda reducido a espectador, reaccionando a faits accomplis en lugar de fijar las reglas.¿Qué aspecto tendría darle la vuelta a todo esto? Empecemos por tratar la inteligencia artificial como infraestructura que requiere capacidad pública, no solo capex privado. El piloto de la National AI Research Resource va en la dirección correcta: dar a investigadores y emprendedores acceso compartido a cómputo, datos y herramientas para que la investigación no dependa de contratos con hiperescaladores. Hágase permanente, bien financiado e independiente, porque la ciencia abierta muere cuando el acceso está controlado por un NDA.Segundo, condicionemos el dinero público y las compras públicas. Si administraciones y centros educativos van a adquirir inteligencia artificial, deberían exigir divulgaciones básicas: qué datos se usaron para el entrenamiento; qué barandillas gobiernan las salidas; qué pruebas independientes ha superado el modelo; y un libro de energía y agua ligado a tiempo y lugar, no a promedios anuales. Si un proveedor no alcanza esos mínimos, no hay contrato. No es «anti-innovación». Es disciplina de mercado alineada con valores públicos.Tercero, separemos capas para limitar el lock-in. Los proveedores de nube no deberían poder imponer que su modelo deba usar sus chips para ejecutar sus servicios por defecto. La interoperabilidad y la portabilidad de datos no son ideales románticos; son la forma de mantener un sector competitivo cuando tres empresas controlan la pila.Cuarto, transparencia debe significar algo más que fichas de modelo escritas por el propio vendedor. Para sistemas por encima de cierto umbral, debemos exigir divulgaciones auditables a terceros cualificados —sobre la procedencia de los datos de entrenamiento, los conjuntos de evaluación y el rendimiento tras el despliegue—. Si suena oneroso es porque la consecuencia a escala es onerosa. Lo hemos aprendido en todas las infraestructuras críticas.Por último, ajustemos el relato ambiental a la realidad. Las divulgaciones de agua y energía deben ser en tiempo real, específicas por instalación y verificadas. «Ser positivos en agua para 2030» no ayuda a un pueblo cuyo acuífero se está vaciando esta década. Si las empresas quieren ser las primeras en lanzar modelos frontera, también deberían ser las primeras en implantar contratación 24/7 de energía libre de carbono y presupuestos estrictos de agua ligados a la hidrología local.Hay un peligro más profundo cuando la estrategia tecnológica nacional se gestiona como una cartera de negocios: la eficiencia y los ingresos se convierten en los indicadores principales y eclipsan necesidades ciudadanas difíciles de cuantificar. En el sector privado, sacrificar ética, transparencia o estabilidad a largo plazo por un acuerdo rentable puede justificarse como «valor para el accionista». En el gobierno, ese mismo intercambio erosiona la democracia, concentra aún más las decisiones y normaliza una lente de «profit first» en asuntos que deberían tratarse como derechos, salvaguardas y confianza pública.La cuestión no es ralentizar la inteligencia artificial. Es decidir, en público, qué inteligencia artificial queremos y en qué condiciones. Estados Unidos es capaz de ambición y de contención; lo hizo con la aviación, con la medicina y con las finanzas. Con la inteligencia artificial no debería ser distinto. Si dejamos las grandes decisiones a unas pocas empresas y a unos pocos cargos políticos, obtendremos un futuro construido para nosotros, no por nosotros. Y el precio de reescribirlo más tarde será más alto de lo que nadie quiere admitir hoy.(Este artículo fue publicado anteriormente en inglés en Fast Company, «AI is already shaping the future . So why do so few of us get to decide what that future will be?»)