El emperador está desnudo: los LLM nunca fueron diseñados para dirigir una empresa

Wait 5 sec.

La magia era real. La conclusión, equivocada.Cuando ChatGPT se lanzó en noviembre de 2022, la reacción fue inmediata y visceral: esto funciona. Por primera vez, millones de personas experimentaron la inteligencia artificial no como una promesa lejana, sino como algo útil, intuitivo y, incluso con sus fallos, asombrosamente capaz.Ese instinto era correcto. La conclusión que vino después, no. Porque lo que funciona de forma brillante para un individuo frente a un teclado ha demostrado ser sorprendentemente ineficaz dentro de una organización. Dos años después, tras miles de millones en inversión, innumerables pilotos y una avalancha interminable de «copilots», empieza a emerger otra realidad: la inteligencia artificial generativa es excepcional produciendo lenguaje. Pero las empresas no funcionan con lenguaje: funcionan con memoria, contexto, retroalimentación y restricciones. Ahí está la brecha. Y por eso tantas iniciativas de inteligencia artificial empresarial están fracasando en silencio.Alta adopción, bajo impacto… y una sensación creciente de déjà vuEsta no es la historia de una tecnología que no ha conseguido tracción. Es justo lo contrario. Un análisis ampliamente citado, respaldado por el MIT, concluye que alrededor del 95% de los pilotos de inteligencia artificial generativa en empresas no logran resultados significativos, y que solo un 5% llega a producción sostenida. Otros análisis apuntan en la misma dirección: experimentación masiva, transformación mínima.Y la explicación es reveladora: el problema no es la falta de entusiasmo, ni siquiera de capacidad. Es que las herramientas no se traducen en cambios operativos reales.No es un problema de adopción. Es un problema de arquitectura.La paradoja incómoda: todo el mundo usa inteligencia artificial, pero nada cambiaHoy, en la mayoría de las empresas, conviven dos realidades: por un lado, los empleados utilizan herramientas como ChatGPT de forma constante. Redactan, resumen, generan ideas y aceleran su trabajo de maneras que resultan naturales y eficaces. Por otro, las iniciativas oficiales de inteligencia artificial empresarial tienen dificultades para escalar más allá de pilotos cuidadosamente controlados. El mismo análisis habla de una «brecha de aprendizaje» creciente: los individuos encuentran valor rápidamente, pero las organizaciones no consiguen integrar ese valor en flujos de trabajo relevantes. El resultado es algo muy cercano a una shadow AI: las personas usan lo que funciona, mientras las empresas invierten en lo que no. Eso no es resistencia al cambio. Es una señal. El error fundamental: tratar un modelo de lenguaje como si fuera un sistema operativoLa mayoría de las explicaciones sobre este fracaso se centran en la ejecución: datos deficientes, casos de uso poco claros, falta de formación. Todo eso es cierto. Todo eso es secundario.El problema real es más simple y mucho más fundamental: los grandes modelos de lenguaje están diseñados para predecir texto. Punto. Todo lo demás (razonamiento, resumen, conversación…) es una propiedad emergente de esa capacidad. Pero las empresas no operan como secuencias de texto. Operan como sistemas dinámicos con estado, memoria, dependencias, incentivos y restricciones.Ahí está el desajuste: como ya he defendido en otras ocasiones, este es el fallo arquitectónico central de la inteligencia artificial actual: los LLM no «ven» el mundo. No mantienen estado persistente. No aprenden de la retroalimentación del mundo real a menos que se diseñen explícitamente para ello.Generan lenguaje convincente sobre la realidad. No operan dentro de ella.No puedes dirigir una empresa con predicciones de palabrasEsto conduce a un patrón que debería resultarnos familiar: pídele a un LLM que aumente tus ventas, que diseñe una estrategia de lanzamiento o que mejore el rendimiento de tu equipo, y obtendrás una respuesta. A menudo, una muy buena. Estructurada, articulada y persuasiva. Y casi completamente desconectada del sistema real que se supone debe influir.Porque un LLM no puede seguir un pipeline, gestionar incentivos, integrar datos de CRM ni adaptarse en función de resultados. Puede describir una estrategia. Pero no puede ejecutarla. Y los estudios lo confirman: estas herramientas funcionan bien para tareas individuales y flexibles, pero se rompen en entornos empresariales donde se requiere adaptación, aprendizaje e integración.Dicho de otro modo: un LLM puede escribir el memo. Pero no puede dirigir la empresa.Más capacidad de computación no solucionará el problemaLa respuesta de la industria ha sido predecible: modelos más grandes, más infraestructura, más escala. Pero escalar no corrige un fallo de diseño: si un sistema carece de anclaje en la realidad, más parámetros no se lo darán. Si carece de memoria, más tokens no se la proporcionarán. Si carece de bucles de retroalimentación, más centros de datos no los crearán.La escala amplifica lo que ya existe. No crea lo que falta. Y aquí lo que falta no es más lenguaje. Es más mundo.La siguiente capa no va de mejores respuestasLa próxima fase de la inteligencia artificial empresarial no vendrá definida por mejores interfaces conversacionales o LLM más potentes. Vendrá definida por algo completamente distinto: sistemas capaces de mantener estado, integrarse en flujos de trabajo, aprender de los resultados y operar bajo restricciones.Sistemas que no solo generan texto, sino que actúan dentro de entornos reales. Por eso el futuro de la inteligencia artificial en las empresas no se construirá únicamente sobre LLMs, sino sobre arquitecturas que los integren dentro de modelos más ricos de la realidad.O, como he defendido en otros textos, por qué los modelos del mundo acabarán siendo una capacidad fundamental y no un concepto marginal.Decir en voz alta lo que muchos ya sabenSi todo esto suena obvio, es porque muchas personas dentro de las organizaciones ya lo ven: han ejecutado los pilotos, han visto las demos y han experimentado la brecha. Pero decirlo en voz alta sigue siendo incómodo.Hay demasiado impulso, demasiada inversión y demasiado relato construido en torno a la idea de que escalar los LLM acabará resolviéndolo todo. No lo hará.El emperador no solo está desnudo. Es que lleva la ropa equivocada.La verdadera oportunidadEsto no es el fin de la inteligencia artificial empresarial. Es el fin de un malentendido. Los modelos de lenguaje no son arquitectura empresarial: son una capa de interfaz. Una muy potente, pero insuficiente por sí sola. Las empresas que lo entiendan primero no solo desplegarán mejor la inteligencia artificial: construirán algo fundamentalmente distinto. Y cuando eso ocurra, volverá a parecer magia. Pero esta vez, no será una ilusión. (This article was previously published on Fast Company)