El talón de Aquiles de la Inteligencia Artificial Generativa

Wait 5 sec.

Para disfrutar los contenidos de Clarín es necesario que actives JavaScript en tu navegador.Volver a la HomeNoticias hoyEn vivoOpiniónPara la mitología griega, Aquiles fue un guerrero destacado en Troya que, pese a su deslumbrante belleza, velocidad y virtuosismo con las armas, fue muerto tras recibir una flecha en su talón, su único punto vulnerable.Desde su difusión masiva, en 2022, los productos de Inteligencia Artificial Generativa siempre fueron acompañados por una etiqueta, un “descargo de responsabilidad”, que reconocía la posibilidad de que la herramienta cometiera errores. Los medios y redes entonces se divertían leyendo algunas de las disparatadas respuestas de los flamantes modelos de lenguaje.Estos deslices fueron bautizados metafóricamente como “alucinaciones” y se trataban de respuestas verosímiles, pero inventadas y falsas. Como el grandioso Aquiles, la IA también tenía su punto débil.Este detalle no le quitaba, en principio, mérito a un sistema que estaba capacitado para, por ejemplo, escribir textos a demanda del usuario en tan solo segundos. Sin embargo, se fue reconociendo que una buena práctica con IA Generativa era considerar a la herramienta como un “asistente” o un “organizador” de información, en lugar de tratarlo como un productor infalible o darle un rol decisorio ante situaciones de importancia.Este “talón de Aquiles” de la Inteligencia Artificial Generativa persiste incluso en los últimos modelos. La empresa Open AI, creadora de ChatGPT, en su flamante y esperado lanzamiento de GPT-5 explicó que el modelo es “significativamente menos propenso a alucinar”, en comparación con modelos previos.Sin embargo, ningún modelo a la fecha descarta aquella posibilidad, en rigor porque la propia tecnología de redes neuronales de la IA Generativa tiene su raíz en estimaciones estadísticas y probabilísticas para la generación de respuestas y no en criterios de exactitud.¿Las alucinaciones pueden impedir la difusión masiva de la IA? No, en rigor este margen de error no ha sido una limitación para la expansión planetaria de la IA. Sin embargo, su posibilidad de alucinar puede negarle la entrada a ciertos sectores más conservadores como el financiero, la banca o la administración pública, en donde un pequeño error puede traer graves consecuencias.Es improbable que aquellas organizaciones, muchas de las cuales aún utilizan COBOL, un preciso lenguaje de programación creado en 1959, se sumerjan en estas experimentaciones con Agentes de IA autónomos y de final incierto.Incluso en el universo de las ventas o atención al cliente, los modelos están siendo usados con matices: poderosa en la interpretación del lenguaje, la IA generativa ayuda en la comprensión de las necesidades del cliente, sin dudas un avance con respecto a los clásicos chatbots. Sin embargo, para elaborar una respuesta las empresas están delegando la acción a sistemas más precisos o con una rigurosa auditoría humana.En definitiva, este desarrollo tecnológico que está en agenda desde hace casi tres años y al que se expone como potencial reemplazante de la inteligencia humana, no está exento de limitaciones. Quizá en unos años, cuando se hayan calmado los profetas cibernéticos del presente, se le reconozca a la IA Generativa el justo lugar que se merece dentro de la caja de herramientas e inventos imaginados por la humanidad a lo largo de los siglos.Newsletter ClarínRecibí en tu email todas las noticias, coberturas, historias y análisis de la mano de nuestros periodistas especializadosQUIERO RECIBIRLOTags relacionadosInteligencia Artificial