Non più innovazione ma motore del cambiamento. La Relazione Annuale 2026 sull’intelligence, intitolata “Governare il cambiamento”, trasforma il paradigma della tecnologia. “L’innovazione tecnologica non accompagna più il cambiamento, lo orienta e lo accelera”, si legge nel documento presentato mercoledì. “Ridefinisce le modalità di esercizio del potere, modifica la natura delle minacce e condiziona la capacità dello Stato di prevenirle e contrastarle. Ne derivano questioni nuove e complesse sul piano giuridico, in relazione ai limiti dell’azione pubblica, al rispetto del principio di legalità e alla tutela dei diritti fondamentali sanciti dall’ordinamento costituzionale”. In altre parole, non solo la tecnologia ridefinisce le modalità in cui lo Stato può operare ma identifica il tipo di minaccia, che si manifesta sotto diverse forme. Se fino ad oggi si batteva il chiodo sulla necessità di difendersi, con la Relazione si passa a una difesa proattiva. La tecnologia insomma è un mezzo per salvaguardare l’autonomia strategica nazionale. “La sovranità digitale, ossia la capacità di controllare in modo autonomo le proprie risorse digitali (in termini di dati, algoritmi, applicazioni, infrastrutture), è diventata condizione indispensabile per tutelare la sicurezza, favorire l’innovazione e difendere l’integrità economica del Paese”.Dal punto di vista dell’intelligence, quindi, la raccolta e l’analisi delle informazioni è solo una parte del lavoro. I servizi dovranno anticipare il tipo di tecnologia che emergerà, come si diffonderà, chi c’è dietro e in che modo potrebbe cambiare gli equilibri geopolitici. Prevenire, dunque, piuttosto che agire a minaccia già palesata. In altre parole, l’intelligence deve sviluppare “energie previsionali”. Nel mondo in cui viviamo, infatti, non è più possibile dividere tra minacce fisiche e digitali. Ormai sono un tutt’uno. Non a caso, la Relazione supera questa dicotomia per introdurre il concetto di ecosistemi “cyber-fisici” (CPS). Così come un attacco hacker è capace di paralizzare per giorni sistemi operativi, e dunque impattare con la quotidianità, allo stesso tempo il classico sabotaggio delle infrastrutture sensibili può degradare la capacità informativa di un avversario.C’è un altro termine che la Relazione introduce, quello di “model collapse”. L’utilizzo sfrenato dell’intelligenza artificiale nei dataset di addestramento dei modelli linguistici potrebbe comportare un abbassamento della qualità e della fedeltà delle informazioni. In questo modo, quanto realizzato dall’uomo passerebbe in secondo piano (erosione epistemica). Il che è un bel problema, visto che la società avrà più difficoltà a distinguere il vero dal falso. Va da sé che in questo modo le fake news potrebbero circolare ancor più velocemente. Soprattutto se le infrastrutture di IA sono detenute nelle mani di pochi soggetti.E qui entriamo nella guerra cognitiva, ovvero quell’operazione che si prefigura di cambiare la percezione della realtà agendo direttamente sui processi decisionali. Per frenarla, l’intelligence suggerisce l’utilizzo di tecnologie decentralizzate. Come ad esempio la blockchain e il self-sovereign identity, due strumenti che permettono di autenticare i contenuti, garantire la loro immutabilità ed evitare la proliferazione dei bot.Il cambiamento è necessario anche perché la tecnologia cammina su più piani. Il concetto di dual-use risponde a questa esigenza. Molto spesso gli strumenti di IA sono d’aiuto, ma se utilizzati in altro modo rischiano di trasformarsi in un pericolo per l’uomo. L’esempio è quello delle armi autonome. L’intelligenza artificiale permette infatti di utilizzare strumenti bellici senza che l’uomo faccia nulla, andando incontro a una serie di violazioni del diritto internazionale e umanitario. Lo scontro in corso tra Anthropic e il Pentagono riguarda proprio questo aspetto. Permettere all’uomo di rimanere centrale anche in questa trasformazione è fondamentale. Per l’Italia avere un’IA antropocentrica è una questione vitale, espressa in modo esplicito anche all’interno della strategia nazionale sull’IA.