AGI - Viviamo in un’epoca in cui l’Intelligenza Artificiale è entrata nel discorso pubblico con una forza senza precedenti. La troviamo nei titoli dei giornali, nei convegni, nelle agende politiche e nei racconti di futuri possibili. Ma quanto davvero comprendiamo l’IA? E soprattutto: quali idee guidano il nostro modo di pensarla, usarla, temerla o celebrarla? Nel suo nuovo libro “Il teatro delle macchine pensanti - 10 falsi miti sull’intelligenza artificiale e come superarli”, edito da Digital Transformation Institute e disponibile a partire dal 10 settembre, Stefano Epifani smonta dieci tra i più diffusi falsi miti sull’Intelligenza Artificiale, costruendo un percorso lucido, documentato e accessibile a chiunque voglia avvicinarsi a questo tema senza cadere nella retorica. Il titolo non è casuale: il “teatro” non è solo metafora, ma una chiave di lettura critica. L’Intelligenza Artificiale, oggi, è spesso presentata come un personaggio dotato di volontà, coscienza, potere. Un attore a cui attribuiamo ruoli mitici – salvatore, distruttore, giudice, oracolo – proiettando su di esso aspettative e paure. Epifani invita il lettore a guardare invece dietro le quinte e a rimettere nella giusta prospettiva il discorso sull’IA, smontando miti, svelando ambiguità, ma soprattutto recuperando consapevolezza. Questo libro è prima di tutto un testo civile e culturale, pensato per innovatori, professionisti, manager, comunicatori, docenti e per chiunque si trovi, oggi, a dover ragionare sull’impatto dell’IA nella vita quotidiana e nel futuro della società, con l’obiettivo di offrire strumenti per orientarsi in un campo dove la complessità viene spesso nascosta dietro narrazioni accattivanti o allarmistiche. “Si tratta di un saggio nato dal desiderio di affrontare il tema dell’Intelligenza Artificiale restituendo all’IA il suo status reale: non soggetto senziente, ma interfaccia statistica. Non mente autonoma, ma sistema predittivo. Non entità neutra, ma tecnologia modellata da chi la crea, da come la si racconta e da chi decide come usarla”, spiega Stefano Epifani. “Il mio intento è stato quello di interrogarmi, e interrogare, sul modo in cui parliamo di IA, sulle narrazioni che la circondano, sulle metafore che la spiegano (e talvolta la deformano), e su come tutto questo condizioni il nostro sguardo sulla società, sul futuro, e su noi stessi. I miti sull’IA, tanto quelli utopici quanto quelli distopici, producono disinformazione e passività”, conclude l’autore. “Ci impediscono di vedere le questioni vere: discriminazioni algoritmiche, concentrazione di potere, mancanza di trasparenza, esclusione sociale”.Il libro - disponibile dal 10 settembre su tutte le principali piattaforme digitali, oltre che sul sito dello stesso autore si articola in dodici capitoli, dieci dei quali sono dedicati a un falso mito particolarmente radicato nel dibattito pubblico.I 10 falsi miti sull’Intelligenza ArtificialeI falsi miti sull’Intelligenza artificiale non sono solo errori concettuali: sono dispositivi narrativi che orientano immaginari, scelte politiche e comportamenti collettiviFalsi miti Cognitivi1. L’Intelligenza Artificiale è intelligente come un essere umano “(…) Ciò che oggi chiamiamo intelligenza artificiale è tutto tranne che intelligente, almeno nel senso umano del termine. Eppure continuiamo a chiamarla così, perpetuando una narrazione che sposta il focus dalla realtà dei fatti alle suggestioni dell’immaginario collettivo (…) Le IA, oggi, non sono intelligenti: simulano l’intelligenza, la mimano con impressionante coerenza linguistica, ma restano prive di comprensione, di intenzionalità, di consapevolezza. Tuttavia, appaiono intelligenti. Il problema (…) risiede nella nostra inclinazione – profondamente umana, e forse inevitabile – a interpretare quelle capacità secondo categorie che ci appartengono: quelle dell’intenzionalità, della coscienza, del pensiero.”2. L’Intelligenza Artificiale funziona come il cervello umano “(…) Quando parliamo di reti neurali artificiali, ci troviamo di fronte a una delle analogie più ingannevoli della storia della tecnologia: quella che paragona il cervello umano a una macchina computazionale. Ma davvero siamo disposti a pensare che il pensiero sia riducibile ad un algoritmo e la coscienza ad una somma di nodi? (…) Invece di spiegare le reti neurali per quello che sono, si è preferito raccontarle come cervelli in miniatura. Una versione da romanzo di fantascienza, insomma, con tutti i limiti del caso”.3. L’Intelligenza Artificiale ha le allucinazioni “(…) Il fenomeno che chiamiamo “allucinazione”, nei modelli generativi di IA, consiste nella produzione di contenuti che appaiono plausibili ma che, a un’analisi più attenta, risultano del tutto inventati, infondati, o semplicemente falsi. Il modello, in sostanza, dice cose che sembrano vere ma non lo sono. L’IA non mente, non inganna, non delira. Semplicemente sbaglia. Ma lo fa in un modo tanto convincente da trarre in inganno. E allora, per spiegare l’inganno, ricorriamo ad un termine mutuato dalla psicologia clinica: allucinazione, un fenomeno intimo, soggettivo, che presuppone – guarda caso – un soggetto. Una mente. Una coscienza. Una qualche forma di interiorità insomma. Applicato a un sistema di IA, la cui interiorità è analoga a quella di una lavatrice, questo termine è una forzatura semantica, se non un errore concettuale vero e proprio”. Falsi miti Operativi4. L’Intelligenza Artificiale è infallibile “(…) L’algoritmo, come un oracolo, parla una lingua arcana che pochi sanno tradurre, e proprio per questo viene preso come verità. (…) Questo meccanismo si innesta su un bias profondamente radicato: il pregiudizio di autorità algoritmica. Se un numero ci dice qualcosa, dev’essere vero (…) A rafforzare questo mito contribuisce una narrazione economica precisa, costruita con cura anche e soprattutto da chi ha interesse a promuovere l’IA come uno strumento impeccabile. L’industria della tecnologia ha bisogno che crediamo nell’efficienza automatica: meno margine d’errore significa più fiducia nel prodotto, e più fiducia significa più adozione.”5. L’Intelligenza Artificiale è imparziale (…) Il falso mito della neutralità delle macchine affonda le sue radici in una visione della tecnica come garanzia di razionalità e imparzialità. Già nel XVII secolo Leibniz, matematico e filosofo tedesco precursore del pensiero computazionale, immaginava un calculus ratiocinator capace di risolvere ogni disputa umana attraverso un linguaggio logico universale (…) Davvero i dati parlano da soli? O, più propriamente, siamo noi a decidere cosa debbano dire? E in questo caso: su quali basi, con quali assunzioni? Non esistono dati “puri”: ogni dato è selezione, ogni algoritmo è progettazione, ogni output è costruzione. La neutralità algoritmica non è altro che un artefatto narrativo”.Falsi miti Simbolici6. L’Intelligenza Artificiale ha intenzioni proprie e si ribella “(…) Il bisogno di immaginare una tecnologia che prende vita e si ribella non nasce da una valutazione tecnica della sua pericolosità, ma da un conflitto interiore: è una proiezione culturale e psicologica delle nostre insicurezze più profonde (…) A ben guardare, ciò che oggi temiamo non è l’IA in quanto tale, ma il suo simulacro: una rappresentazione alimentata da decenni di fiction, da copertine sensazionalistiche, da dichiarazioni catastrofiste. L’effetto di questa narrazione è tangibile e devastante: secondo i dati dell’Osservatorio per la Sostenibilità Digitale, nel 2025 quasi tre italiani su quattro sono spaventati dall’IA e quasi la metà ritiene addirittura che essa possa minacciare la sopravvivenza dell’umanità (…) Emblematica è una vecchia iniziativa del Parlamento Europeo, che nel 2017 suggeriva lo status giuridico dei robot, ipotizzando per essi diritti e doveri”.Falsi miti Sistemici7. L’Intelligenza Artificiale è una tecnologia come le altre “(…) L’idea che l’Intelligenza artificiale sia una tecnologia come le altre – neutra, prevedibile, regolabile con strumenti tradizionali – è uno dei più insidiosi falsi miti della contemporaneità. (…) Se l’IA è una tecnologia come le altre, allora possiamo trattarla con gli strumenti normativi, cognitivi e politici che abbiamo sempre usato. Ma l’IA è diversa. Perché osserva, prevede, rappresenta. E nel farlo, modifica le condizioni stesse della nostra capacità di conoscere e decidere.8. L’Intelligenza Artificiale ci ruberà il lavoro “(…) L’IA non ruba lavoro. È la nostra incapacità di ridisegnarne il perimetro a renderla un rischio. Solo una parte delle attività lavorative è realmente automatizzabile: la maggior parte dei mestieri, infatti, è composta da attività molteplici e complesse, e solo alcune di queste sono realmente replicabili da una macchina. Ma ogni volta che una macchina svolge un compito meglio di noi, siamo tentati di pensare che il nostro intero ruolo sia superato. È il paradosso della rappresentazione: ciò che l’IA simula diventa, per molti, ciò che sostituisce (…) Il falso mito secondo il quale l’intelligenza artificiale spazzerà via il lavoro umano non è soltanto epistemologicamente infondato: è, prima ancora, culturalmente disorientante e politicamente pericoloso”.9. L’Intelligenza Artificiale è insostenibile per l’ambiente “(…) Il mito dell’insostenibilità dell’intelligenza artificiale ha attecchito grazie a una narrazione tanto seducente quanto riduttiva: quella che, semplificando, confonde singoli dati di consumo con giudizi assoluti su una tecnologia (…) Quando discutiamo dell’impatto ambientale dell’IA, infatti, dobbiamo evitare il rischio di guardare solo al consumo diretto di energia. La domanda giusta da porsi non è semplicemente “quanto consuma”, bensì “quale sarebbe il consumo necessario per quel particolare processo se non ci fosse l’IA” In altri termini, è necessario confrontare l’energia impiegata con quella che l’assenza della tecnologia renderebbe inevitabile. Falsi miti regolativi10. Serve un’etica per l’Intelligenza Artificiale (…) Nel tempo in cui si delega alla macchina il compito di dire cosa è giusto, l’“etica dell’IA” è diventato un mantra rassicurante quanto ingannevole (…) non sorprende che Papa Leone XIV, già nei suoi primi interventi dopo l’elezione, abbia richiamato la necessità di una “regolamentazione etica” dell’intelligenza artificiale, e che già Papa Francesco avesse sottolineato, prima di lui, che l’IA dovesse servire l’essere umano e non sostituirlo: «funziona ... per il bene degli esseri umani, non per diminuirli o sostituirli» (…) È proprio qui che si annida il paradosso: invocare una regolamentazione etica per qualcosa che, per definizione, è privo di coscienza, rischia di spostare il peso del giudizio morale dall’uomo alla macchina”.Chi è Stefano EpifaniStefano Epifani è uno dei principali esperti italiani di trasformazione digitale e sostenibilità. Fondatore e presidente del Digital Transformation Institute – Fondazione di ricerca per la sostenibilità digitale, ne dirige le attività con un approccio che coniuga rigore scientifico e impegno civile. Giornalista, keynote speaker e docente universitario, negli ultimi anni ha insegnato Internet Studies alla Sapienza di Roma e Sostenibilità Digitale all’Università di Pavia. Attualmente insegna Intelligenza Artificiale per la Corporate Communication. Ha insegnato anche all’estero, presso la Grenoble École de Management in Francia e l’EAFIT di Medellín, in Colombia. Ha lavorato in Nazioni Unite come referente in America Latina di progetti legati alla trasformazione digitale e allo sviluppo urbano sostenibile, collaborando con istituzioni, governi e centri di ricerca. È autore del saggio Sostenibilità Digitale: perché la sostenibilità non può fare a meno della trasformazione digitale (2020), tradotto in inglese e spagnolo, con oltre 15.000 copie vendute. Figura di riferimento nel dibattito italiano sull’innovazione, è attivo come conferenziere in Italia e all’estero, promuovendo una cultura digitale più consapevole, inclusiva e orientata al bene comune.