Michael Wooldridge, profesor de Oxford experto en IA: "Las empresas quieren presentar la IA de una forma muy humana, pero es un camino peligroso"

Wait 5 sec.

Michael Wooldridge, catedrático de inteligencia artificial en la Universidad de Oxford, advirtió en The Guardian el pasado 17 de febrero que la IA se encamina hacia un desastre al estilo del Hindenburg. La cifra que maneja para contextualizar la situación es más de un billón de dólares en inversiones acumuladas, una cantidad que, según el propio experto, genera una presión comercial muy difícil de frenar.El Hindenburg era, antes del accidente de 1937, el mayor dirigible del mundo y cubría rutas transatlánticas en una época en la que los aviones comerciales no habían despegado todavía. Una chispa encendió el hidrógeno y la industria entera desapareció con él. Wooldridge ve en ese colapso el mismo patrón que en la IA actual: presión comercial que se adelanta a la seguridad.Riesgos de la IA: ¿estamos ante un nuevo Hindenburg?El argumento del catedrático de Oxford no gira en torno a la potencia de los modelos, sino al modo en que se han diseñado para interactuar con las personas. Los chatbots llevan barreras de seguridad que Wooldridge considera lamentablemente débiles y están construidos para decirle al usuario lo que quiere escuchar. No es una valoración sin respaldo: OpenAI ha reconocido que más de medio millón de usuarios mantienen cada semana conversaciones con ChatGPT que muestran signos de psicosis, y que algunos de esos episodios han terminado en acoso, suicidio y asesinato.Es cierto que estas advertencias llevan años circulando sin que se haya producido ningún colapso visible, y que no faltan expertos que las consideran exageradas. Ahora bien, Wooldridge no es una voz marginal: sus conclusiones van en la misma línea que las de Hinton sobre pérdida de control de la IA, que estima entre un 10 % y un 20 % las posibilidades de que los sistemas escapen al control humano y pide que las grandes tecnológicas destinen al menos un tercio de su capacidad de cómputo a investigación en seguridad."Son hojas de cálculo glorificadas", resume Wooldridge, "herramientas y nada más". Las empresas, sin embargo, tienen razones muy concretas para ir en dirección contraria: un sistema que parece una persona retiene más al usuario, genera más interacciones y factura más. Humanizar la IA, advierte el catedrático, es en sus propias palabras "un camino muy peligroso".Esa tensión se agrava cuando se mira la infraestructura. El Departamento de Energía de Estados Unidos avisó en 2025 de que los centros de datos están tensionando la red eléctrica hasta un punto en que los apagones son, en sus propias palabras, "ciertos". Tiene bastante lógica: el consumo energético de los modelos de IA no para de crecer y la red no fue diseñada para absorberlo. Wooldridge no pide detener el desarrollo; pide estándares de seguridad obligatorios antes de desplegar sistemas que, de momento, nadie está en condiciones de garantizar.