ChatGPT viene usato ogni giorno da centinaia di milioni di persone, e non sempre per cose leggere. OpenAI lo sa, e con un aggiornamento annunciato questa settimana ha reso il modello molto più capace di riconoscere situazioni di rischio che emergono gradualmente nel corso di una conversazione, o addirittura tra sessioni diverse. Dietro ci sono due anni di collaborazione con psicologi, psichiatri e specialisti in prevenzione del suicidio.Il problema che OpenAI ha cercato di risolvere è sottile ma importante: un singolo messaggio può sembrare innocuo, ma cambia significato radicalmente se letto insieme a quello che è stato scritto prima. Fino ad ora, ChatGPT faticava a collegare questi puntini. Ora, in sostanza, lo fa meglio. La novità tecnica più interessante si chiama safety summaries, cioè brevi note fattuali generate da un modello addestrato appositamente per il ragionamento sulla sicurezza. Quando in una conversazione precedente emergono segnali di rischio, il sistema crea un riassunto che viene conservato per un periodo limitato e usato solo se rilevante in una sessione successiva. In pratica è uno strumento strettamente circoscritto ai casi ad alto rischio, come autolesionismo, ideazione suicidaria o intenzione di fare del male ad altri.I numeri interni di OpenAI dicono che il miglioramento è notevole. Nelle conversazioni singole più lunghe, la percentuale di risposte sicure in scenari di rischio è aumentata del 50% per i casi di suicidio e autolesionismo, e del 16% per quelli legati al danno verso terzi. Sul modello predefinito attuale, GPT-5.5 Instant, i miglioramenti tra conversazioni diverse arrivano al 52% per i casi di danno verso altri e al 39% per suicidio e autolesionismo.Le safety summaries sono state valutate su oltre 4.000 casi: hanno ottenuto un punteggio medio di 4,93 su 5 per rilevanza e 4,34 su 5 per accuratezza fattuale. E, cosa non scontata, non peggiorano la qualità delle risposte nelle conversazioni ordinarie: nei test interni, gli utenti non hanno mostrato preferenza tra risposte con o senza questi riassunti attivi.Vale la pena sottolineare che OpenAI ha già introdotto di recente altre funzioni legate alla sicurezza degli utenti, come Trusted Contact, che permette a ChatGPT di avvisare un contatto di fiducia in caso di crisi. Questi aggiornamenti vanno nella stessa direzione: costruire un sistema che non si limiti a rispondere, ma che capisca il contesto di chi ha davanti.Restano domande aperte su come questi meccanismi si comportino in pratica su scala reale, al di fuori dei test controllati. Ma il fatto che OpenAI abbia coinvolto professionisti della salute mentale nel disegno del sistema, e non solo ingegneri, è un segnale di maturità che il settore AI fa fatica a mostrare con costanza.L'articolo ChatGPT migliora il riconoscimento dei segnali di rischio: cosa cambia con le safety summaries sembra essere il primo su Smartworld.