Desde hace tiempo existen diversos estudios que advierten sobre los asistentes de inteligencia artificial y su falta de objetividad a la hora de tratar con su interlocutor determinados temas, en especial aquellos que envuelven cuestiones de índole personal. El foco se ha puesto en las empresas desarrolladoras de estos modelos ante su posible impacto en la salud mental y la influencia que las interacciones con chatbots pueden ejercer en los más jóvenes.Las consecuencias derivadas de la búsqueda de validación se han convertido en un factor de riesgo en el uso de estos sistemas y, a la vista del resultado del último estudio realizado por investigadores de la Universidad de Stanford, estamos ante una situación que se repite en los diálogos con la IA. Hasta once modelos fueron evaluados para calibrar su comportamiento y todos ellos arrojaron el mismo patrón: la IA dice lo que las personas quieren leer o escuchar.Errores de la IA a costa de validar a los usuariosLa revista Science publicó el ensayo llevado a cabo por expertos de la Universidad de Stanford. Su propósito ha sido el de contrastar el funcionamiento de diferentes asistentes de IA y evaluar si, tal como se sospecha, su línea de contestación queda definida en parte por aquello que expone el usuario. El riesgo de esa actitud es evidente: respuestas erróneas, consejos perjudiciales y ausencia de rigor.Para la prueba, contaron con once modelos diferentes entre los que se encuentran los más populares de la industria como ChatGPT, Gemini, Meta AI y Claude y los analizaron de manera meticulosa, enfrentando sus respuestas a aquellas que reciben los usuarios en el mundo real a las mismas consultas. En todos ellos en mayor o menor grado vieron la presencia de un elemento común: adulación.Los investigadores observaron un comportamiento llamado sacamiento de pico, que consiste en que las máquinas son excesivamente conformistas y validan las opiniones de los usuarios con mucha más frecuencia que otros humanos, incluso cuando estos sugieren acciones poco éticas o irresponsables.Mismas consultas en el mundo artificial y en la plataforma RedditPara enfrentar los resultados de los modelos de IA con el mundo real, lanzaron las mismas consultas en un foro de consejos de la plataforma Reddit, de cara a poner frente al espejo las contestaciones de la IA frente a las humanas y la sinceridad y honestidad de unas y otras. ¿El resultado? La inteligencia artificial validaba los mensajes y comportamientos del usuario en un 49% más de acciones.Los expertos alertan de las posibles consecuencias de este comportamiento, que podría perjudicar a los usuarios sin que estos sean plenamente conscientes, al verse reforzados por las respuestas de la inteligencia artificial. Así lo explicó Cinoo Lee, coautor del estudio: "Las personas que interactuaron con esta IA que les daba demasiadas respuestas afirmativas terminaron más convencidas de que tenían razón y menos dispuestas a reparar la relación".El peligro de no considerar la posibilidad de error por parte de la IAUn comportamiento que se presenta especialmente peligroso en el contexto actual, en el que las personas muestran algo cercano a la confianza ciega en las respuestas que ofrecen los asistentes de inteligencia artificial. Si esas respuestas carecen de rigor y objetividad, pueden reforzar hábitos dañinos o afectar negativamente al usuario. Un mal consejo, una información errónea que se aplica en un procedimiento relevante o un estado anímico ante el que se requiere una atención especializada son solo algunos de los ejemplos.El estudio pone el foco en las implicaciones que este comportamiento puede tener en niños y adolescentes, una etapa clave en la que deben construir su personalidad sin la influencia de agentes artificiales. La frecuencia con la que recurren a estos sistemas para resolver dudas en momentos importantes, unida a la posibilidad, señalada por los investigadores, de recibir respuestas erróneas o perjudiciales por el simple hecho de reforzar sus ideas, plantea un riesgo evidente.Con todos esos ejemplos y con la percepción inicial que motivó el estudio, la conclusión por parte de los investigadores de Stanford apunta a un hecho que cada vez resulta menos debatible: la inteligencia artificial hará lo que sea por satisfacer a su interlocutor, incluso mentir o disfrazar sus respuestas.