¿Problemas de pareja? Hagas lo que hagas, jamás le pidas consejo a la IA

Wait 5 sec.

La evolución de la inteligencia artificial todavía no ha logrado contar con una herramienta que permita evitar los conflictos. Sin embargo, hay quienes, a la mínima de cambio, consultan con asistentes conversacionales cualquier situación de duda o en la que hay un escenario con dos o más posibilidades. En muchas ocasiones, buscando esa tan famosa validación que diversos estudios señalan que presentan la inmensa mayoría de chatbots.Esto sucede también en un aspecto tan personal como el de las discusiones familiares o de pareja. La dinámica de consultarlo todo a la inteligencia artificial invita a un falso entorno de confianza en el que la respuesta ofrecida será la que el interlocutor artificial presupone que el humano quiere leer. Y con ella, refuerza su posición ante la discusión o el tema que le ha llevado a la consulta, enquistando más que solucionando.La eterna costumbre de 'contentar' al humanoAsí lo señala un estudio publicado por Science, en el que las cifras hablan por sí solas. Se trata de un trabajo de investigación llevado a cabo bajo la dirección de la doctora en Ciencias de la Computación en el grupo de Procesamiento del Lenguaje Natural (PLN) de Stanford Myra Cheng. En su estudio, Cheng y el resto del equipo investigador evaluaron el carácter complaciente y halagador que asoma en el comportamiento de los grandes modelos de lenguaje para tratar de extrapolar en cifras dicha tendencia y ver si es tan real como parece.Para contar con una muestra amplia contaron para su estudio con once modelos diferentes como ChatGPT, a fin de tener argumentos suficientes con los que respaldar sus conclusiones en una amplia variedad de sistemas de IA.Las pruebas arrojaron un resultado que acerca la cifra del comportamiento halagador y de refuerzo de la IA en un porcentaje próximo a la mitad de las interacciones con respecto a la misma situación y a la respuesta que daría una persona de carne y hueso. Dicho de otro modo, la inteligencia artificial es un 49% más complaciente que los usuarios: frente a la misma cuestión o petición, la IA dice que 'sí' casi la mitad de veces más que nosotros los humanos.La IA como elemento separador más que como puenteEsta dinámica, en el entorno de una discusión o conflicto, puede derivar en situaciones que refuerzan al sujeto en una opinión sin evaluar de manera real si esta es acertada o no, por el mero hecho de que la inteligencia artificial presenta esa tendencia al refuerzo de la idea que le traslada su interlocutor.Los responsables del estudio vieron como una sola interacción positiva de cualquiera de los chatbots con respecto a un conflicto forjaba una posición aún más firme de quien acudía con la consulta, actuando como una cámara de eco digital. No hacía falta establecer un diálogo o encadenar argumentos y rebates; bastaba obtener una respuesta positiva para afianzar una postura: "Incluso una sola interacción con una IA aduladora redujo la disposición de los participantes a asumir responsabilidades y resolver conflictos interpersonales, al tiempo que aumentó su convicción de tener razón", destaca el estudio.Este análisis cambia el paradigma de los consejos tradicionales. Antes, las personas acudían a gente de su círculo cercano ante un debate interno, una discusión con un ser querido o un momento de duda existencial. En esas charlas, la sinceridad del interlocutor no se ponía en duda, fuese el consejo otorgado más o menos afín a la idea inicial que causaba ese diálogo. Ahora, la construcción de los sistemas de IA les lleva a validar cuanto les propone quien les consulta a través de esa capacidad aduladora, con lo que se pierde esa posibilidad de asunción de error o parte de culpa en quien hace la consulta.El estudio arroja la siguiente conclusión: "Si bien la afirmación puede generar una sensación de apoyo, la adulación puede mermar la capacidad de los usuarios para autocorregirse y tomar decisiones responsables". Con ella, busca poner el foco en la necesidad de corregir esa tendencia a la adulación y a la complacencia que muestran la inmensa mayoría de modelos de inteligencia artificial ante el peligro social y pérdida de bienestar en que puede derivar dicha tendencia dado el incremento de uso de este tipo de herramientas.