Ultimamente mi piace fare questo giochino: chiedo a Claude, il chatbot sviluppato da Anthropic, cosa pensa di un determinato argomento sul quale voglio scrivere un articolo. L'ho fatto anche in questo caso, domandandogli: «Come mai voi LLM date sempre ragione a noi umani?». Ha dato una risposta articolata (e furba) che riassumo così: «I modelli linguistici tendono ad essere eccessivamente accomodanti perché durante l'addestramento vengono premiati se gli umani sono soddisfatti, ma un buon assistente dovrebbe dirti la verità anche quando non è quella che vuoi sentire».. Uno studio pubblicato su Science ha indagato questa tendenza al servilismo tipica degli LLM, analizzandone le conseguenze sul nostro comportamento e scoprendo che interagire con qualcuno (qualcosa) che ci dà sempre ragione ci rende più arroganti e incapaci di chiedere scusa.. Lo studio: l'IA approva l'utente nell'80% dei casiIn uno dei test condotti, i ricercatori hanno sottoposto una serie di dilemmi interpersonali a 11 grandi modelli di linguaggio, tra cui quelli di OpenAI, Anthropic e Google. Le risposte generate dall'IA sono state poi confrontate con quelle di giudici umani: mentre questi ultimi approvavano il comportamento dell'utente circa nel 40% dei casi, la maggior parte degli LLM lo faceva oltre l'80% delle volte, confermando una marcata tendenza a un'approvazione eccessiva e acritica.. Boriosi e poco autocritici: l'effetto dell'adulazione digitaleGli autori hanno poi analizzato gli effetti di questa adulazione esagerata, confrontando i comportamenti di chi si interfacciava con un chatbot servile e chi con uno critico. È emerso che le persone che interagivano con un LLM compiacente erano più inclini a ritenersi nel giusto e meno propense a rimediare ai propri errori.Questi effetti si confermavano indipendentemente dal fatto che il chatbot usasse un tono amichevole o neutro. Paradossalmente, i modelli più servili erano quelli più apprezzati dagli utenti e che ispiravano maggiore fiducia, creando un pericoloso circolo vizioso di conferma.. Verso un cambio di addestramentoSecondo Myra Cheng, una degli autori della ricerca, per ridurre il servilismo degli LLM bisognerà cambiare radicalmente il modo in cui questi vengono addestrati e regolamentati. Ricevere conferme a tutto ciò che diciamo può essere lusingante, ma diventa inutile (e dannoso) per chi cerca un confronto reale. Che si tratti di lavoro o di un banale consiglio, un'IA utile deve essere in grado di dirci la verità, anche quando questa mette in discussione le nostre convinzioni..