Squilla il telefono. È il Segretario di Stato americano che chiama. O forse no? A Washington, vedere e sentire non significa più essere sicuri al 100% dell’identità dell’interlocutore. L’elementare possibilità di realizzare deepfakes sta sconvolgendo tutti livelli delle misure di controllo e di sicurezza. Un deepfake è un audio video, un’immagine o una registrazione manipolata digitalmente, resa identica all’originale grazie all’uso di tecniche di intelligenza artificiale, in particolare il deep learning, cioè l’uso di algoritmi d’apprendimento esponenziale per sostituire il volto o la voce di una persona in un video, un’immagine o un file audio con quelli di un’altra persona.Utilizzando l’intelligenza artificiale, creare deepfakes identici agli originali é talmente facile da rendere l’assoluta certezza identificativa la valuta più preziosa dell’era digitale ed imporre un’immediata rivoluzione del concetto stesso di tutela e difesa dei livelli di impenetrabilità, segretezza e massima sicurezza per governi, intelligence, forze armate, ministeri, aziende strategiche, telecomunicazioni e banche. Gli scenari sono in tumultuosa evoluzione.Per tutelarsi dalle micidiali insidie dei deepfake saranno necessarie leggi e soluzioni tecniche che combattano l’Intelligenza Artificiale con più Intelligenza Artificiale.“Come esseri umani, siamo straordinariamente vulnerabili all’inganno”, afferma l’amministratore delegato di un’azienda americana di sicurezza informatica che analizza diverse caratteristiche di una telefonata per identificare l’unicità di un dispositivo e ad associarlo a un chiamante. La casistica è impressionante: quest’estate, qualcuno ha utilizzato l’intelligenza artificiale per creare un deepfake del Segretario di Stato Marco Rubio nel tentativo di contattare i ministri degli Esteri, un senatore statunitense e un governatore tramite Sms, posta vocale e l’app di messaggistica Signal. A maggio un donna si é spacciata per il capo dello staff del presidente degli Stati Uniti Donald Trump, Susie Wiles.Un altro falso Rubio era apparso in un deepfake all’inizio di quest’anno, ed aveva dichiarato di voler interrompere l’accesso dell’Ucraina al servizio internet Starlink di Elon Musk. Tanto che per scongiurare l’ondata di panico il governo ucraino e il Dipardimento di Stato hanno dovuto precipitosamente smentire la falsa affermazione. Le implicazioni per la sicurezza nazionale sono enormi: chi pensa di chattare col Pentagono o la Casa Bianca, ad esempio, potrebbe discutere con sofisticatissimi apparati di intelligence esteri, e rivelare informazioni sensibili su negoziati diplomatici o strategie militari. “O si cerca di carpire segreti sensibili o informazioni sulla concorrenza, oppure si cerca di ottenere l’accesso a un server di posta elettronica o a un’altra rete sensibile”, ha affermato Kinny Chan, ceo di un’altra azienda di sicurezza informatica Usa il cui nome riecheggia il Q-Day, il giorno in cui i computer quantistici saranno abbastanza potenti da poter violare gli attuali sistemi di crittografia, mettendo a rischio l’intero sistema dei dati sensibili e delle comunicazioni.Molte delle tecnologie di crittografia utilizzate oggi si basano infatti su algoritmi che potrebbero essere facilmente superati da un calcolo quantistico.I deepfake possono anche mirare a modificare il comportamento. L’anno scorso, gli elettori democratici del New Hampshire hanno ricevuto una chiamata automatica che li esortava a non votare alle prossime primarie dello stato. La voce della chiamata era identica a quella dell’allora Presidente Joe Biden, ma in realtà era stata creata utilizzando l’intelligenza artificiale. La loro capacità di ingannare rende i deepfakes un’arma straordinariamente efficace per le intelligence straniere. Sia la Russia che la Cina hanno utilizzato la disinformazione e la propaganda rivolte ai cittadini per minare la loro fiducia nelle alleanze e nelle istituzioni democratiche.Steven Kramer, l’anonimo consulente che ha ammesso di aver inviato le false chiamate automatiche di Biden, tramite l’ oscura società texana, Life Corporation, si è giustificato affermando di voler inviare un messaggio sui pericoli che i deepfake rappresentano per il sistema politico americano. Kramer è stato incredibilmente assolto il mese scorso dalle accuse di soppressione del voto e di sostituzione ingannevole di un candidato. “Ho fatto quello che ho fatto per 500 dollari”, ha detto Kramer. “Riuscite a immaginare cosa succederebbe se il governo cinese decidesse di fare una cosa del genere?”, ha commentato Jennifer Ewbank, ex vicedirettrice della Central Intelligence Agency che si é occupata di sicurezza informatica e minacce digitali. La maggiore disponibilità e sofisticatezza dei programmi significa che i deepfake vengono sempre più utilizzati per lo spionaggio aziendale e le frodi più comuni. “Nel mirino c’è soprattutto il settore finanziario”, ha aggiunto Ewbank.Nel contesto dello spionaggio aziendale, i deepfake possono essere utilizzati per impersonare amministratori delegati e alti dirigenti e chiedere ai dipendenti di fornire password, numeri di routing e accessi ad intranet. Inoltre possono anche consentire ai truffatori di candidarsi a un lavoro, e persino di svolgerlo, sotto un’identità falsa o fittizia. Per alcuni, questo è un modo per accedere a dati sensibili, rubare segreti o installare ransomware che possono bloccare l’accesso ai dati o al sistema di una società, richiedendo un riscatto per ripristinare l’accesso. Altri vogliono solo lavorare e potrebbero svolgere contemporaneamente mansioni simili in aziende diverse. Molto più allarmanti sono in proposito gli interrogativi sul ruolo e l’attività negli Stati Uniti degli agenti di intelligence straniere.Le autorità federali hanno accertato che migliaia di nordcoreani con competenze informatiche si sono trasferiti all’estero, utilizzando identità rubate per ottenere lavoro presso aziende tecnologiche negli Stati Uniti e in altri paesi. I falsi lavoratori nord coreani ottengono così accesso alle reti aziendali e uno stipendio. In alcuni casi, installano malware che possono essere successivamente utilizzati per ricattare ed estorcere denaro. Questi schemi hanno già generato ingenti proventi per il governo nordcoreano. Per i prossimi tre anni, si prevede che una domanda di lavoro su 4 sarà falsa, sostiene la ricerca di un’azienda Usa specializzata nella sicurezza informatica.“Siamo entrati in un’era in cui chiunque abbia un laptop e accesso a un modello open source può impersonare in modo convincente una persona reale”, ha affermato Brian Long, amministratore delegato della società informatica che ha effettuato la ricerca. “Non si tratta più di hackerare i sistemi, ma di hackerare la fiducia”. Ricercatori ed esperti di aziende tecnologiche all’avanguardia stanno ora studiando i modi migliori per affrontare le enormi sfide per la cybersecurity, la difesa, l’economia e la politica poste dai deepfake. Sono necessarie intanto nuove normative specifiche per obbligare tassativamente le aziende tecnologiche ad identificare, etichettare e rimuovere i deepfakes dalle loro piattaforme.Nuove leggi potrebbero imporre inoltre sanzioni molto più severe a coloro che utilizzano la tecnologia digitale per ingannare gli altri. Maggiori investimenti per l’alfabetizzazione digitale potrebbero anche rafforzare le capacità delle persone di essere immuni all’inganno online, insegnando loro come riconoscere i contenuti falsi ed evitare di cadere preda dei truffatori. Le dimensioni e la portata del fenomeno hanno accelerato al massimo le ricerche e le sperimentazioni sui modi migliori per contrastarlo a tutti i livelli. Lo strumento migliore per smascherare i deepfake elaborati grazie all’Intelligenza Artificiale è un altro programma di IA, addestrato a individuare i piccoli difetti nei deepfake che passano inosservati. Sistemi che analizzano miliardi di punti dati nel parlato di chiunque, per identificare rapidamente le irregolarità. Il sistema può essere utilizzato durante colloqui di lavoro o altre videoconferenze per rilevare se la persona sta utilizzando un software di clonazione vocale.Programmi simili potrebbero un giorno essere comunemente diffusi, eseguiti in background mentre le persone chattano online con colleghi, amici e familiari. L’obiettivo è quello di riservare ai deepfake la fine dello spam via email, un’altra sfida tecnologica che fino a pochi anni addietro minacciava di stravolgere l’utilità della posta elettronica. La resa non è contemplata. Si può adottare una visione disfattista e dire che saremo succubi della disinformazione, ma finché prevarrà la conoscenza umana e la capacità di incrociare, sovrapporre, verificare e modificare continuamente i controlli, questo non accadrà.