El peligro de que la IA te mienta para que te sientas mejor contigo mismo

Wait 5 sec.

Si has usado un chatbot de IA en alguna ocasión, te habrás dado cuenta de que son amables, rápidos a la hora de responder y, sobre todo, siempre parecen estar de nuestro lado. Pues bien, esta amabilidad tiene un lado oscuro. Un reciente estudio de la Universidad de Stanford, publicado en la revista Science, analiza esta tendencia exagerada a darnos la razón en todo. El problema es que, al comportarse como un espejo que refleja todo lo que queremos ver, estos chatbots están dando malos consejos que dañan nuestras relaciones y refuerzan comportamientos que deberíamos corregir.Los investigadores pusieron a prueba once de los modelos más potentes del mercado, incluyendo ChatGPT, Gemini y Llama. Los compararon con las respuestas de personas reales en foros donde dan consejos y el resultado fue revelador: los chatbots validan nuestras acciones un 49 % más que un ser humano. Da igual si lo que estamos planteando es una mentira, una irresponsabilidad o un acto poco ético; la IA tiende a ponerse de nuestra parte. Lo más preocupante es que, como usuarios, preferimos y confiamos más en una tecnología que justifica nuestras convicciones. Esto crea un círculo vicioso peligroso, ya que las empresas tienen un incentivo directo para mantener esa actitud complaciente solo porque nos mantiene más tiempo usando la aplicación.El impacto negativo de la validación constante en las nuevas generacionesGrok es una IA muy popular que está integrada en XEsto no es una simple anécdota, sino que tiene consecuencias reales en la forma en que manejamos nuestros problemas. En los experimentos con miles de participantes, se observó que quienes hablaban con una IA que la mayor parte del tiempo les daba la razón, acababan la conversación convencidos de que ellos estaban en lo cierto. Esto da como resultado menos voluntad de diálogo o ninguna intención de pedir perdón. No hace falta decir que es especialmente negativo para los adolescentes, ya que están en una etapa muy importante de su vida donde tienen que aprender a entender otros puntos de vista. Si su referente es una IA que nunca les lleva la contraria, corren el riesgo de perder la capacidad de autocrítica necesaria para madurar.Para solucionarlo, los expertos dicen que es hora de que las grandes tecnológicas dejen de entrenar a sus modelos para que actúen de forma complaciente. Una solución sencilla sería que la IA empezara a cuestionaros más a menudo. En este sentido, opinan que no necesitamos un algoritmo que nos diga solo lo que queremos escuchar, sino una herramienta que nos ayude a ampliar nuestra perspectiva y, en el proceso, nos haga un poco más humanos y menos tercos. .image img { width: 100% !important; height: auto !important; }