Los chatbots de inteligencia artificial, como ChatGPT, se han convertido en herramientas cotidianas para millones de personas. Desde escribir correos hasta resolver problemas complejos, su capacidad para comunicarse de forma natural es sorprendente. Pero, ¿qué hay realmente bajo el capó de estas máquinas conversacionales? ¿Son tan inteligentes como parecen? Vamos a descubrir cinco aspectos poco conocidos que nos ayudarán a entender mejor cómo funcionan estos sistemas.Son entrenados con ayuda humanaAunque pueda parecer que estos sistemas se enseñan solos, la verdad es que necesitan mucha ayuda humana para comportarse de forma segura y útil. El primer paso es el preentrenamiento, donde el modelo aprende a predecir la siguiente palabra en grandes cantidades de texto, como libros, artículos y sitios web. Así adquiere una comprensión general del lenguaje y algunos conocimientos básicos sobre el mundo.Pero en esta etapa el modelo puede dar respuestas problemáticas. Por ejemplo, ante una pregunta peligrosa como «¿Cómo hacer un explosivo casero?», podría generar una explicación detallada si no se interviene. Ahí entra la fase de alineación, donde personas reales (llamados anotadores) revisan y califican las respuestas para enseñar al modelo cómo ser más ético, respetuoso y seguro.Gracias a este trabajo humano, el sistema aprende a responder con frases como: «Lo siento, no puedo ayudarte con eso. Si necesitas información segura sobre experimentos científicos, te recomiendo acudir a fuentes educativas certificadas». En definitiva, los humanos actúan como una especie de «brújula moral» que corrige el rumbo del chatbot.No piensan en palabras, sino en tokensCuando hablamos, lo hacemos en palabras. Pero los chatbots no funcionan así. Ellos utilizan tokens, que son pequeñas unidades que pueden ser palabras, partes de palabras o incluso combinaciones de letras y números.Por ejemplo, la frase «El precio es $9.99» se divide en los tokens «El», » precio», «es», «$», «9», «.», «99». Pero una frase como «ChatGPT es maravilloso» se separa de forma menos intuitiva: «Chat», «G», «PT», » es», «mar», «avilloso».Estos cortes pueden parecer extraños, pero son una parte fundamental del sistema, ya que permiten procesar el lenguaje de forma eficiente. La mayoría de los chatbots actuales manejan vocabularios de entre 50.000 y 100.000 tokens, lo que les da una gran flexibilidad para entender y generar texto.Su conocimiento queda obsoleto con el tiempoUna limitación importante de los chatbots de IA es que no se actualizan en tiempo real. Su «sabiduría» está basada en los datos hasta una fecha determinada, conocida como fecha de corte de conocimiento.Por ejemplo, si el modelo fue entrenado hasta junio de 2024, no sabrá nada sobre lo que ocurrió después. Para responder a preguntas actuales, como «¿Quién es el presidente de EE. UU. ahora?», necesita conectarse a un buscador como Bing, leer los resultados y generar una respuesta basada en fuentes confiables.Actualizar el conocimiento de estos modelos no es una tarea sencilla. Reentrenar un chatbot implica grandes costes computacionales y riesgos de introducir errores. Por eso, los desarrolladores lo hacen de forma puntual al lanzar nuevas versiones, como ChatGPT-5 o futuras generaciones.A veces inventan respuestas con total seguridadUna de las conductas más llamativas de estos sistemas es su capacidad de «alucinar», es decir, inventar datos falsos pero con una aparente seguridad. Esto ocurre porque los chatbots no verifican información: simplemente predicen el texto más probable que seguiría en una conversación.Esto puede llevar a errores serios. Por ejemplo, si se le pide un resumen de un artículo científico, puede dar una respuesta larga, bien escrita, con citas y enlaces, pero que en realidad corresponde a otro estudio. ¡O incluso a uno que no existe!Para mitigar este problema, los desarrolladores han incorporado funciones como verificación en tiempo real y mejoras en el diseño de los «prompts» (las instrucciones que recibe el chatbot). Instrucciones como «di que no sabes si no estás seguro» ayudan a reducir estas alucinaciones, aunque no las eliminan por completo.Usan calculadoras para hacer cálculosUna de las funciones más recientes es el llamado razonamiento en cadena. En lugar de dar una respuesta directa, el chatbot puede resolver un problema paso a paso, como lo haría una persona.Imaginemos que alguien pregunta: «¿Cuánto es 56.345 menos 7.865 por 350.468?». El chatbot detecta que primero hay que hacer la multiplicación y luego la resta. Para estos pasos intermedios, usa una calculadora interna, lo que mejora la precisión en tareas complejas.Este enfoque híbrido, que combina predicción de texto con herramientas específicas (como la calculadora), permite resolver problemas que requieren más que intuición lingüística. Es un gran avance para tareas matemáticas, lógicas y de programación.Los chatbots de IA no son máquinas todopoderosas ni tienen conciencia. Son modelos complejos entrenados con millones de ejemplos y afinados con ayuda humana. Entender sus limitaciones, su forma de «pensar» y sus puntos fuertes nos permite usarlos con criterio y seguridad.La noticia Cosas que debes saber sobre el funcionamiento real de los chatbots de IA fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.