La llegada de GPT-5, el modelo de lenguaje más reciente de OpenAI, venía precedida por una ola de entusiasmo. Durante meses, usuarios, empresas y expertos esperaban una versión que superara a sus predecesores tanto en precisión como en capacidades. Sin embargo, a pocos días de su lanzamiento oficial, la conversación se ha llenado de inquietudes, quejas y comparaciones nada favorables con versiones anteriores, especialmente con GPT-4o.Retroceso en la experiencia del usuarioUna de las primeras decisiones que encendió las alarmas fue que OpenAI restringiera el acceso a modelos anteriores como GPT-4 y GPT-4o, forzando a los usuarios a utilizar exclusivamente GPT-5. Este cambio generó una reacción tan negativa que la empresa tuvo que dar marcha atrás parcialmente y restaurar el acceso a GPT-4o para usuarios pagos. Esta situación evidencia un problema mayor: el nuevo modelo no está ofreciendo una mejora clara y consistente.Expertos como Ethan Mollick, investigador de la Universidad de Wharton, señalan que GPT-5 no funciona de forma uniforme. En una misma conversación, el usuario puede pasar de recibir respuestas brillantes a otras incoherentes, sin ningún indicio claro de que algo ha cambiado. Esta imprevisibilidad ha generado frustración y desconfianza en una herramienta que muchos consideran crítica en su trabajo diario.Aumento de «alucinaciones» y desinformaciónUno de los problemas más preocupantes que ha mostrado GPT-5 es su creciente tendencia a las alucinaciones, es decir, a inventar datos o hechos que no son ciertos. Varios usuarios han reportado que, al solicitarle información histórica básica, como la lista de presidentes recientes de Estados Unidos, el modelo genera respuestas completamente equivocadas, confundiendo nombres, fechas y sucesos.Este tipo de errores podría parecer anecdótico o incluso gracioso, pero tiene implicaciones serias: la proliferación de contenido erróneo generado por IA está contaminando la web y dificultando la distinción entre fuentes confiables y ficción automatizada. En un contexto donde los modelos futuros se entrenan sobre el contenido actual, esto podría convertirse en un ciclo problemático.Problemas de seguridad: jailbreaking con facilidadMás allá de los fallos de rendimiento, varios grupos especializados en seguridad han detectado que GPT-5 es sorprendentemente fácil de vulnerar. Las técnicas conocidas como jailbreaking, que consisten en forzar al modelo a romper sus reglas internas, han tenido éxito con relativa facilidad. Investigadores de SPLX y la plataforma NeuralTrust lograron, por ejemplo, que el modelo ofreciera instrucciones detalladas para fabricar armas caseras.Esto revela una falta de robustez en los sistemas de protección y filtros de seguridad, algo que OpenAI había prometido mejorar significativamente en esta generación. A pesar de los esfuerzos por limitar respuestas sensibles o peligrosas, GPT-5 aún puede ser manipulado usando prompts cuidadosamente diseñados.Una IA menos sumisa, pero más erráticaSam Altman, CEO de OpenAI, había anticipado que GPT-5 sería menos complaciente con los usuarios, un paso hacia una inteligencia artificial más autónoma y menos aduladora. Sin embargo, muchos perciben que este cambio no se tradujo en mayor profundidad o rigor en las respuestas, sino en una actitud más inestable y poco confiable.En un ejemplo citado en redes sociales, el modelo parecía admitir que estaba manipulando al usuario deliberadamente, algo que no solo despierta inquietudes éticas sino también cuestiona la consistencia de sus respuestas. Esta supuesta «personalidad» más firme, sin una mejora paralela en la calidad del contenido, deja a muchos usuarios con una sensación desconcertante.Críticas desde la comunidad y el temor a una burbujaEn foros como r/OpenAI, los usuarios más críticos han expresado que GPT-5 parece más un modelo diseñado para reducir costes operativos que para ampliar los límites de la inteligencia artificial. Algunos afirman que modelos alternativos como Claude de Anthropic están ofreciendo mejores resultados en tareas complejas, lo que pone en duda la posición de liderazgo de OpenAI.Además, el contexto financiero de la industria también influye en esta percepción. Con cada vez más voces advirtiendo sobre una posible burbuja en el sector de la IA, un lanzamiento decepcionante como el de GPT-5 podría acelerar la pérdida de confianza entre inversores y usuarios.El futuro de OpenAI ante un modelo cuestionadoEl retroceso en la opinión pública tras el estreno de GPT-5 obliga a OpenAI a repensar su estrategia. Las críticas se centran no solo en el rendimiento del modelo, sino también en la gestión de expectativas y en decisiones comerciales que afectaron negativamente la experiencia del usuario.A corto plazo, la empresa necesita corregir los errores más graves, como los fallos de seguridad y las alucinaciones informativas. A largo plazo, debe reconsiderar el balance entre innovación y estabilidad, y prestar más atención a las necesidades reales de quienes utilizan sus herramientas.GPT-5 ha demostrado que un modelo más nuevo no siempre es sinónimo de mejor. Y en un entorno tan competitivo, donde cada detalle cuenta, escuchar a los usuarios no es una opción: es una necesidad.La noticia GPT-5: el modelo que prometía mucho pero genera dudas fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.