¿Temen los creadores de la IA al futuro que están construyendo?

Wait 5 sec.

Desde hace una década, Mark Zuckerberg lleva levantando un complejo gigantesco en la isla hawaiana de Kauai. Su proyecto, conocido como Koolau Ranch, abarca más de 1.400 acres y, según diversas filtraciones, incluiría un refugio subterráneo autosuficiente, con suministro propio de energía y alimentos. Los trabajadores del recinto firmaron estrictos acuerdos de confidencialidad, y un muro de casi dos metros bloquea las vistas desde la carretera. Aunque el fundador de Facebook negó que se trate de un búnker, su “pequeño sótano de 500 metros cuadrados” ha alimentado todo tipo de teorías.Zuckerberg no está solo. En Palo Alto, ha adquirido once propiedades contiguas, con permisos de obra que hablan de “sótanos”, pero que sus vecinos llaman directamente “búnkeres” o “cuevas de supermillonario”. A su alrededor, otros líderes tecnológicos (desde Reid Hoffman, cofundador de LinkedIn, hasta empresarios anónimos del sector) parecen seguir el mismo patrón: comprar terrenos aislados, construir refugios subterráneos y hablar abiertamente de lo que llaman “seguro contra el apocalipsis”.Entre el miedo al colapso y la fe en la inteligencia artificialLa pregunta es inevitable: ¿qué temen exactamente? Las guerras, el cambio climático o el colapso social son respuestas obvias, pero hoy la lista de amenazas existenciales incluye algo nuevo: la inteligencia artificial.El propio Ilya Sutskever, cofundador y antiguo científico jefe de OpenAI, expresó en 2023 su creciente preocupación de que la humanidad esté cerca de crear una inteligencia artificial general (AGI), capaz de igualar la inteligencia humana. Según la periodista Karen Hao, Sutskever llegó a bromear en una reunión interna: “Definitivamente construiremos un búnker antes de liberar la AGI”. Su comentario, aunque ambiguo, refleja un temor que se extiende entre los mismos ingenieros que están construyendo las máquinas más inteligentes del planeta.Mientras tanto, las predicciones sobre la llegada de esa inteligencia general se multiplican. Sam Altman, actual director de OpenAI, aseguró que sucederá “antes de lo que la mayoría imagina”. Demis Hassabis, de DeepMind, sitúa ese momento entre cinco y diez años, y Dario Amodei, fundador de Anthropic, cree que su “IA poderosa” podría emerger en 2026. Frente a estas afirmaciones, otros expertos se muestran escépticos. La profesora Wendy Hall, de la Universidad de Southampton, considera que se trata de una promesa inflada: “Dicen que está cerca, pero cambian las reglas constantemente. La ciencia reconoce que la IA es asombrosa, pero no se acerca a la inteligencia humana.”El científico Babak Hodjat, de Cognizant, coincide: antes de hablar de AGI harían falta avances fundamentales que aún no existen. Y aunque la IA mejora sin cesar, no habrá un momento único que marque su llegada, sino una evolución gradual hacia sistemas cada vez más autónomos.Aun así, la idea de una futura superinteligencia artificial (una tecnología que supere ampliamente a la humana), sigue fascinando a Silicon Valley. Desde los años cincuenta, cuando el matemático John von Neumann formuló la idea de “la singularidad”, muchos han imaginado ese punto de no retorno en el que el poder de decisión pasará definitivamente a las máquinas. En el libro Genesis (2024), Eric Schmidt y Henry Kissinger describen un mundo donde los algoritmos dirigen gobiernos y economías con tal eficacia que los humanos acabarían delegando en ellos toda autoridad.Los defensores de esa visión son casi mesiánicos. Elon Musk ha llegado a afirmar que la IA traerá una era de “renta universal alta”, donde cada persona disponga de un asistente personal tan útil como R2-D2 o C-3PO. Según él, la superinteligencia resolverá el cambio climático, curará enfermedades y creará una abundancia sostenible. Sin embargo, las advertencias son igual de sonoras: ¿qué ocurrirá si esta tecnología cae en manos de terroristas, o si decide que la especie humana es el problema? Tim Berners-Lee, creador de la Web, resumió el dilema en una frase: “Si es más inteligente que tú, debemos poder apagarla.”Los gobiernos intentan adelantarse. En Estados Unidos, la administración Biden impuso en 2023 normas que obligaban a las empresas de IA a compartir sus pruebas de seguridad con el Gobierno, aunque el presidente Trump las revocó al considerarlas un obstáculo para la innovación. En el Reino Unido, se creó el AI Safety Institute para evaluar riesgos de las IAs más avanzadas. Pero entre tanto protocolo y comisión, los multimillonarios siguen prefiriendo la solución más rudimentaria: comprar su propia salida de emergencia. Hoffman lo definió con ironía: “Decir que te has comprado una casa en Nueva Zelanda es un código entre ricos. Ya se entiende lo que significa.”Hay quien cree que todo este pánico es puro teatro. El profesor Neil Lawrence, de la Universidad de Cambridge, lo compara con buscar un “vehículo universal”. “No existe un vehículo que sirva para volar, conducir y caminar a la vez”, dice. “Hablar de una inteligencia general es igual de absurdo.” Para él, el peligro no está en lo que vendrá, sino en lo que ya tenemos: herramientas capaces de influir en millones de personas y decisiones sin que sepamos exactamente cómo lo hacen. “Nos hemos dejado atrapar por el relato de las grandes tecnológicas sobre la AGI, y mientras tanto olvidamos mejorar lo que ya existe.”Por mucho que la IA aprenda y produzca resultados sorprendentes, no posee conciencia ni introspección. Los modelos actuales pueden analizar radiografías o escribir poesía, pero no “saben” lo que hacen. “Los modelos de lenguaje pueden actuar como si tuvieran memoria, pero es una ilusión,” explica Hodjat. “Los humanos, en cambio, saben que saben.” Esa diferencia, la conciencia de la propia mente, sigue siendo el límite infranqueable entre nosotros y las máquinas.Quizá por eso, en los sótanos blindados de Silicon Valley, los arquitectos de la inteligencia artificial también construyen refugios contra ella. En el fondo, entre tanto cálculo y código, late una certeza incómoda: nadie teme más a la próxima era de las máquinas que quienes la están programando.El artículo ¿Temen los creadores de la IA al futuro que están construyendo? fue publicado originalmente en Andro4all.