Gaza. La guerra automatizzata: l’intelligenza artificiale al centro della strategia militare israeliana

Wait 5 sec.

di Shorsh Surme – Due recenti indagini hanno rivelato l’ampiezza dell’impiego dell’intelligenza artificiale (IA) nella guerra di annientamento condotta a Gaza e nei sistemi di sorveglianza della popolazione dei territori palestinesi occupati. Le startup, spesso presentate come simboli della modernità israeliana, emergono in realtà come componenti strutturali del complesso militare-industriale del Paese. Una terza inchiesta mostra inoltre il coinvolgimento del colosso statunitense Microsoft nella strategia bellica che colpisce la popolazione palestinese.«Una volta automatizzato, il processo di targeting sfugge al controllo», ha dichiarato un ufficiale coinvolto nell’Operazione Iron Swords a Gaza, avviata dopo gli eventi del 7 ottobre. L’affermazione mette in luce una svolta letale nei metodi dell’esercito israeliano e il ruolo crescente dell’IA nella strategia di annientamento perseguita da Tel Aviv.L’esercito israeliano aveva già fatto ricorso all’intelligenza artificiale in precedenti operazioni militari per migliorare l’individuazione dei bersagli. Tuttavia, per la prima volta dal 7 ottobre, la responsabilità di selezionare ed eliminare gli obiettivi è stata delegata direttamente a un sistema automatizzato, ampliando drasticamente la platea dei cosiddetti “danni collaterali”. A rivelarlo è un’inchiesta del giornalista Yuval Avraham, pubblicata sul sito 972+, basata su documenti ottenuti da Drop Site News e su testimonianze anonime di fonti militari.Secondo Avraham, l’uso dell’IA, inizialmente limitato al supporto nell’indicizzazione dei documenti e nel processo decisionale, si è progressivamente intensificato, mentre il controllo umano è andato riducendosi. Già nel 2021, l’attuale comandante dell’unità d’élite dell’intelligence israeliana 8200, in un manuale dal titolo emblematico Il team uomo-macchina, ovvero come la creazione di sinergie tra esseri umani e intelligenza artificiale rivoluzionerà il mondo, aveva sottolineato la necessità di un sistema di raccolta dati e decisione automatizzata. Quel progetto è diventato operativo nel 2024 con il nome di Lavender.Una volta che Lavender identifica una persona come agente di Hamas, tale classificazione equivale di fatto a una condanna a morte, senza alcuna verifica indipendente dei dati che hanno portato la macchina a quella conclusione. Ignorando gradi e ruoli militari, il sistema ha identificato 37mila palestinesi sulla base di “tratti comuni” attribuiti ai membri di Hamas e della Jihad Islamica. I militari hanno accettato consapevolmente il rischio di errori generati da tali correlazioni, e infatti il sistema ha incluso tra i potenziali bersagli agenti di polizia, personale della protezione civile, parenti di militanti e persino individui con nomi simili. Ed è esattamente ciò che è accaduto.In passato, l’eliminazione di un singolo individuo richiedeva un lungo processo di identificazione volto a garantire che l’obiettivo fosse un ufficiale di alto rango dell’ala militare di Hamas, gli unici colpibili con attacchi aerei nelle proprie abitazioni. Con la delega all’IA, la fase di verifica si è ridotta a pochi secondi prima dell’attacco.Il sistema Lavender ha svolto un ruolo cruciale nell’intensificazione dei bombardamenti, soprattutto nelle prime fasi della guerra. Gli ufficiali, protetti dalla catena di comando, non erano tenuti a verificare i criteri di selezione dei bersagli, nonostante un tasso di errore stimato intorno al 10%, ma solo a confermare che la persona individuata fosse un uomo, poiché Hamas e la Jihad Islamica non impiegano combattenti donne.Questo approccio ha contribuito all’uccisione di circa 15mila palestinesi nelle prime sei settimane dell’offensiva israeliana a Gaza. La carneficina non è stata interrotta per ragioni morali, ma per il timore, poi rivelatosi infondato, di un possibile esaurimento delle scorte di bombe, mentre gli aiuti militari statunitensi continuavano ad affluire senza interruzioni.