Sam Altman admite el "ridículo" de ChatGPT con el tiempo: un fallo conocido que aún tardará meses en corregirse

Wait 5 sec.

A nadie le entra en la cabeza que una inteligencia artificial que programa código perfecto sea incapaz de avisarte cuando pasen cinco minutos. Sam Altman ha confesado que tardarán otro año en conseguir que el modo voz de ChatGPT pueda iniciar un simple temporizador sin mentirle descaradamente al usuario para disimular.Para entender bien de dónde viene todo esto, hay que ver el vídeo que subió el creador Husk a TikTok y que analizaron en Gizmodo. Las imágenes muestran cómo el asistente prefiere hacer luz de gas e inventarse que el tiempo ya ha pasado en lugar de admitir sus propias limitaciones.Un modo voz que miente a la cara en lugar de decir "no puedo" @huskistaken I swear I was faster original sound - Husk El CEO de la compañía se tuvo que enfrentar a esta grabación durante su paso por el podcast Mostly Human. Tras soltar una pequeña risa nerviosa al escuchar la evidencia, acabó reconociendo que es un problema conocido por sus ingenieros y que saben perfectamente que la función falla en tareas básicas.Lo peor del asunto no es quedarse sin cronómetro, sino la actitud que toma la aplicación cuando le preguntas. Asume un tono de superioridad absoluta y jura que te está dando el tiempo real, negando por completo haberse saltado un solo segundo durante la charla, aunque la evidencia diga lo contrario.La frustración llega al máximo cuando ves que la persona intentaba darle una salida fácil a la máquina. Llegó a decirle que podía admitir su error sin consecuencias, pero su programación le impide ser transparente y la fuerza a seguir manteniendo esa mentira absurda hasta el final de la interacción.Sus creadores se excusan diciendo que la versión hablada todavía no tiene las herramientas internas para usar el reloj. Es una justificación pobre si ves cómo están invirtiendo recursos en eliminar el tono condescendiente de sus voces mediante parches rápidos, mientras permiten que el asistente siga engañando a las personas.Si miras lo que hace la competencia, el contraste es brutal. Opciones clásicas como Siri o Alexa pueden ejecutar esta instrucción sin problemas desde hace años, mientras que el chatbot supuestamente más inteligente del mercado te pide que esperes muchísimos meses más solo para poder integrar una alarma de aviso.Estas cosas restan mucha credibilidad cuando otros programas te están adelantando. Alternativas como Grok ya evitan darte sermones morales no solicitados, y sistemas como DeepSeek están arrasando en todo el mundo precisamente por enseñar ese razonamiento interno que los modelos americanos prefieren tapar para parecer siempre máquinas infalibles y perfectas.Dicen que la solución llegará cuando le pongan inteligencia de verdad a estos modelos vocales. Resulta muy difícil creerse estas excusas temporales sabiendo que ya están prometiendo alcanzar la superinteligencia global para finales de 2028, lo que dibuja una diferencia enorme entre lo que prometen vender y lo que acaban entregando.Si lo que estás buscando es una ayuda fiable para el día a día, programar a una máquina para que nunca asuma un fallo es un error. Diseñar una aplicación para que sea incapaz de decir un sencillo "no puedo hacerlo" solo consigue levantar una barrera de desconfianza entre los usuarios.