Un reciente estudio realizado por el psicolingüista Michael Vitevitch, de la Universidad de Kansas, ha puesto a prueba a ChatGPT con un experimento poco convencional: hablarle con palabras sin sentido. El objetivo era observar cómo este sistema de inteligencia artificial reacciona ante estímulos que no tienen un significado directo, replicando así técnicas usadas en psicología cognitiva para analizar el procesamiento del lenguaje humano.Qué son las «nonwords» y por qué se usan en psicologíaEn psicología del lenguaje, una nonword es una combinación de letras o sonidos que no corresponde a ninguna palabra existente en un idioma. Por ejemplo, «blif» o «gorp» en inglés. Estas palabras ficticias permiten a los investigadores observar cómo procesamos y comprendemos el lenguaje sin apoyarnos en conocimientos previos. Son como espejos que reflejan las reglas implícitas que usamos al leer, hablar o aprender.Vitevitch quiso saber si un modelo como ChatGPT, que aprende de miles de millones de palabras reales, podría reconocer patrones, simular comprensión o incluso generar sentido a partir del sinsentido.AI vs. Humanos: dos cerebros que procesan distintoUna de las conclusiones clave del estudio es que la IA y el cerebro humano no funcionan igual, aunque puedan llegar a resultados similares. Mientras que los humanos aplican reglas fonológicas y semánticas basadas en experiencia y contexto, ChatGPT opera detectando patrones en datos masivos, sin una comprensión «real» del lenguaje.Cuando se le presentaron palabras inglesas extinguidas, como «upknocking» (un trabajo del siglo XIX que consistía en despertar a la gente, hoy obsoleto por el despertador), ChatGPT acertó en 36 de 52 definiciones. En 11 casos admitió no conocer el término, y en otros 3, mezcló idiomas. Pero en dos ocasiones inventó definiciones, un fenómeno conocido como «alucinaciones» en modelos de lenguaje.Este comportamiento revela algo fascinante: cuando no tiene una respuesta clara, la IA puede «rellenar los huecos» intentando ser útil, aunque eso implique crear información incorrecta.El juego fonológico: cuando ChatGPT mezcla idiomasOtro experimento consistió en pedirle a ChatGPT que, ante una palabra en español, diera un término en inglés que sonara similar. Esta tarea, diseñada para analizar la similitud fonológica, arrojó un resultado curioso: el modelo a veces devolvía palabras en otros idiomas o mezclaba lenguas, algo que los humanos rara vez harían, salvo en contextos muy específicos como en familias multilingües.Este comportamiento pone en evidencia que el modelo no sigue las mismas reglas que nosotros al juzgar similitudes fonéticas. Más bien, hace asociaciones estadísticas que no siempre se alinean con la intuición humana.Evaluando «qué tan buena» suena una palabra inventadaEn una tercera fase, se diseñaron nonwords que parecían reales, como «glanter» o «spraffle». A ChatGPT se le pidió calificarlas en una escala del 1 al 7 según «qué tan buena palabra en inglés» parecían. Sus valoraciones se compararon con las de hablantes humanos nativos.El resultado demostró que el modelo es capaz de imitar los juicios humanos sobre la naturalidad de una palabra, lo cual sugiere que tiene internalizados patrones fonotácticos (reglas que determinan qué combinaciones de sonidos son posibles o comunes en un idioma). Es como si, sin entender el significado, pudiera «olfatear» qué suena bien en inglés.Crear palabras para lo que no tiene nombreInspirado en los «sniglets» de los años 80 (neologismos cómicos creados por el humorista Rich Hall para describir situaciones cotidianas sin nombre), Vitevitch invitó a ChatGPT a inventar palabras para conceptos nuevos.Entre los resultados más ingeniosos:Rousrage: ira provocada al ser despertado.Prideify: sentir orgullo por el logro de otra persona.Lexinize: cuando una palabra sin sentido empieza a adquirir significado.Stumblop: tropezar con los propios pies.Estas creaciones muestran que la IA es capaz de generar lenguaje creativo combinando conceptos existentes. Sin embargo, suele seguir patrones predecibles, como fusionar dos palabras conocidas, lo cual limita su originalidad.Reflexión final: cómo podemos aprovechar este tipo de IAEl estudio no busca probar que la IA piense como nosotros, sino entender dónde puede sernos más útil. Vitevitch sugiere que no necesitamos que ChatGPT imite al ser humano, sino que complemente nuestras capacidades. Si es bueno detectando patrones o proponiendo alternativas lingüísticas, puede convertirse en una herramienta educativa o creativa de gran valor.Hablarle con palabras inventadas ha sido, paradójicamente, una forma eficaz de comprender mejor cómo esta tecnología interpreta el lenguaje. Y también nos permite mirar hacia adentro: ver cómo nosotros mismos damos sentido al mundo a través de las palabras.La noticia ChatGPT frente a palabras inventadas: Lo que nos revela sobre el lenguaje humano y la inteligencia artificial fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.