Il libro che racconta la corsa di Sam Altman per creare l’IA perfetta

Wait 5 sec.

AGI - L’intelligenza artificiale non è più un esperimento da laboratorio: è una forza che sta cambiando il mondo, il lavoro, la politica, persino il modo in cui pensiamo. Ma dietro gli algoritmi ci sono persone, ambizioni e contraddizioni molto umane.È questo il punto di partenza di Valeva la pena tentare (Apogeo, Feltrinelli), il nuovo libro di Pier Luigi Pisa, giornalista di Repubblica ed esperto di innovazione e IA.Attraverso la parabola di Sam Altman, cofondatore di OpenAI e figura chiave nella rivoluzione dell’intelligenza artificiale, Pisa racconta una storia che unisce visione tecnologica e dramma umano: la corsa per costruire una macchina capace di pensare e il rischio di perderne il controllo.Lo abbiamo intervistato per capire cosa c’è davvero dietro la nascita di ChatGPT, quali dilemmi attraversano oggi l’IA e, soprattutto, se davvero “valeva la pena tentare”.Nel libro racconti non solo l’ascesa di Sam Altman e OpenAI, ma anche i conflitti, i tradimenti e le tensioni umane dietro lo sviluppo dell’AI. Quanto pensi che questi aspetti “umani” abbiano influito sul destino della tecnologia stessa?Ogni rivoluzione tecnologica nasce da un intreccio di ambizioni, interessi e visioni personali, ma nel caso di ChatGPT questo intreccio è stato quasi il motore stesso dell’innovazione. All’interno di OpenAI le tensioni sono state parte integrante del progresso. Sam Altman, Elon Musk, Greg Brockman, Ilya Sutskever: hanno tutti vissuto la costruzione di un sistema intelligente come una missione religiosa ma anche come una battaglia di ego e controllo. La promessa di “un’IA per tutti” si è scontrata presto con la realtà di una tecnologia troppo potente per essere gestita senza fratture. E troppo costosa per rispondere agli ideali. Le crisi interne hanno segnato momenti di svolta, talvolta più profondi delle scelte tecniche. È paradossale, ma la stessa intelligenza artificiale che avrebbe dovuto superare i limiti umani nacque e si sviluppò proprio grazie a essi. Senza quelle fragilità, senza la paura di fallire o di essere superati, OpenAI non avrebbe avuto la stessa urgenza e lo stesso slancio creativo. Dalla fondazione idealista di OpenAI all’accordo miliardario con Microsoft: qual è, secondo te, il compromesso più grande che Altman ha dovuto accettare per trasformare un sogno in una realtà globale?Il compromesso più grande accettato da Sam Altman è stato quello di consegnare un sogno nato come promessa collettiva alle logiche del potere che avrebbe voluto scardinare. Ha fondato OpenAI come un laboratorio aperto e senza fini di lucro, guidato dall’idea che i progressi dell’intelligenza artificiale dovessero essere condivisi. Ma quando il progetto è cresciuto, si è reso conto che per farlo sopravvivere servivano risorse fuori dalla sua portata. L’addestramento delle reti neurali ha richiesto energia, infrastrutture e investimenti crescenti: tutto ciò che solo un gigante come Microsoft poteva offrire. L’accordo col colosso di Redmond ha dissolto parte dell’innocenza iniziale di OpenAI. Una volta - era il 2024 se non sbaglio - Altman ha detto: “Non mi interessa se per costruire l’AGI bruceremo 500 milioni, 5 miliardi o 50 miliardi di dollari all'anno”. Ma i miliardi non si fanno con l’open source. Si fanno vendendo un prodotto. Ed è stata questa, forse, la decisione che ha messo in crisi OpenAI: trasformarsi da progetto per l’umanità in azienda. Alcuni dei suoi ricercatori - come Ilya Sutskever - hanno vissuto quella svolta come un tradimento silenzioso, altri come un passo inevitabile verso la sopravvivenza. Alla fine, il compromesso non è stato solo economico. È stato morale, quasi esistenziale. Nel libro emerge spesso il parallelo tra l’entusiasmo visionario e il timore apocalittico legato all’AI. Dopo aver scritto questa storia, prevale in te più la speranza o la preoccupazione per il futuro dell’intelligenza artificiale?La scrittura di questo libro ha cambiato profondamente il mio modo di guardare all’intelligenza artificiale. Ho sempre preso con cautela i timori dei doomers, coloro che vedono nell’IA una sorta di Terminator destinato a spazzarci via. Mi è sempre sembrato un allarmismo eccessivo: oggi siamo di fronte a una tecnologia che, per quanto sorprendente, si limita a generare una parola dopo l’altra su base statistica. Non esistono ancora fondamenti scientifici solidi per sostenere che, in futuro, essa potrà davvero sfuggire al controllo umano. Detto questo, l’IA resta una tecnologia da monitorare con attenzione. Gli avvertimenti di molti ricercatori che ho intervistato - tra cui il “padrino dell’IA” Yoshua Bengio - non vanno sottovalutati: sono persone infinitamente più preparate di me e le loro preoccupazioni meritano ascolto. Tuttavia, credo che guardare troppo avanti, immaginando scenari apocalittici, serva solo a spaventarci inutilmente. I rischi più gravi dell’intelligenza artificiale, a mio avviso, sono già qui, presenti e tangibili. È emersa una forma di tossicità più sottile e insidiosa: la tendenza a considerare la macchina come un confidente, un amico o addirittura un terapeuta. Per chi soffre di fragilità psicologiche, questa illusione di intimità può aggravare problemi preesistenti, generando dipendenza, alienazione e decisioni dannose. Sono pericoli concreti, che meritano attenzione immediata, ben più del timore di una “rivolta delle macchine”. Allo stesso tempo, fatico a intravedere le grandi rivoluzioni promesse: scoperte epocali in medicina o nella lotta al cambiamento climatico che l’IA avrebbe dovuto accelerare, ma che per ora non si sono materializzate. Le grandi aziende tecnologiche continuano a raccontarci di un futuro radioso, ma la realtà appare più complessa. Ci è stato detto che l’intelligenza artificiale avrebbe aumentato la nostra produttività senza sostituire l’uomo. Eppure i dati mostrano un quadro diverso: le assunzioni diminuiscono a causa dell’automazione crescente, e molte aziende non assumono personale se prima non è dimostrato che un compito non può essere svolto dall’IA. In definitiva, credo che oggi i lati oscuri di questa tecnologia superino ancora quelli positivi. Eppure, se usata con consapevolezza, l’IA può offrire vantaggi enormi - nel lavoro, nello studio e persino nella vita quotidiana. Sta a noi imparare a conviverci senza esserne travolti.OpenAI è nata anche per contrastare il rischio che pochi grandi player controllassero lo sviluppo dell’AI. Oggi però OpenAI stessa è un colosso tech. Come spieghi questa contraddizione?È una contraddizione reale e in parte inevitabile. OpenAI era nata con l’obiettivo di democratizzare l’intelligenza artificiale, per evitare che il suo sviluppo fosse monopolizzato da pochi grandi attori privati. Nel tempo, però, la stessa complessità della ricerca e i costi enormi necessari per addestrare modelli sempre più potenti hanno reso quasi impossibile restare indipendenti senza l’appoggio di grandi capitali. In un certo senso, è il paradosso di tutta l’industria dell’IA: per costruire sistemi accessibili e “per tutti”, servono infrastrutture e investimenti che solo i colossi tecnologici possono sostenere. E così il rischio di concentrazione rimane, o addirittura si rafforza. La sfida, oggi, è capire se OpenAI saprà usare la sua posizione di forza per promuovere nel tempo un ecosistema realmente aperto e sicuro, o se finirà per diventare semplicemente un altro gigante tra i giganti.Il titolo 'Valeva la pena tentare' lascia intendere una riflessione aperta: dopo aver seguito così da vicino le vicende di Altman e di OpenAI, qual è la tua risposta personale a quella domanda?Credo di sì, valeva la pena tentare. Nonostante tutte le contraddizioni, i rischi e le derive che ho osservato, l’intelligenza artificiale generativa rappresenta una scoperta rivoluzionaria: stiamo cercando di capire, per la prima volta, cosa significa costruire una tecnologia che imita alcuni aspetti della mente umana. È un passaggio forse inevitabile nella storia del nostro rapporto con le macchine, e rinunciare in partenza avrebbe significato rinunciare anche a comprendere meglio noi stessi. Detto questo, il prezzo del “tentativo” non è irrilevante. Stiamo affidando a pochi individui e a poche aziende un potere immenso, senza ancora aver definito regole chiare su come gestirlo o su chi debba risponderne. Forse valeva la pena tentare, come ha detto Altman agli studenti di Harvard qualche anno fa quando ha raccontato le difficoltà iniziali di OpenAI, ma oggi è il momento di fermarsi a riflettere su come continuare: non solo chiedendoci cosa l’IA può fare, ma anche cosa è giusto che faccia e per chi.