La Difesa mette l’IA a sistema. Cosa prevede la nuova Strategia

Wait 5 sec.

Il ministero della Difesa ha presentato una Strategia dedicata all’intelligenza artificiale, pensata per guidarne l’adozione in modo coordinato dentro l’organizzazione e nelle attività operative. Il documento colloca l’IA nella trasformazione, non come sperimentazione isolata. Il perimetro è articolato in quattro aree. Nelle operazioni, l’IA deve sostenere pianificazione, superiorità decisionale, velocità di ingaggio e protezione multi-dominio. Nei contesti organizzativi deve migliorare decisioni e produttività e rendere più efficienti i processi. Formazione, addestramento e ricerca servono a costruire cultura e competenze, anche tramite simulazione e cooperazione uomo macchina. L’industria è chiamata a rafforzare capacità autonome e a valorizzare l’ecosistema nazionale.Governance e attuazione con Uia e LiadPer evitare iniziative scollegate, la strategia ridisegna la governance e affida l’attuazione a due snodi complementari. L’Uia, Ufficio per l’intelligenza artificiale, viene concepito come cabina di regia interna. Deve dare indirizzo, coordinare e monitorare l’integrazione dell’IA nella Difesa, assicurando coerenza tra priorità operative, scelte tecnologiche e vincoli etici e normativi, fino alla verifica del rispetto dei principi fissati per l’impiego. Il Liad, Laboratorio di IA per la Difesa, è invece il braccio tecnico e realizzativo. È descritto come polo di eccellenza e AI delivery center, con il compito di trasformare esigenze e casi d’uso in soluzioni effettivamente adottabili, accompagnandone sviluppo, sperimentazione e messa a terra insieme agli utilizzatori finali. Su questa architettura si innesta la cornice delle quindici Direttrici strategiche e un Piano attuativo che assegna responsabilità e indicatori di performance per misurare l’avanzamento.Etica, controllo umano e la pressione del lawfareL’adozione dell’IA viene incardinata su un approccio responsabile e coerente con il Diritto internazionale umanitario. La strategia ribadisce controllo umano e responsabilità della linea di comando. Inserisce poi la sfida del lawfare. Differenze tra approcci etici e legali tra nazioni possono generare asimmetrie operative, alimentare disinformazione e produrre dilemmi di impiego. La condizione dichiarata è avere regole e processi che rendano l’uso dell’IA verificabile e governabile.Sovranità tecnologica e pilastri abilitantiAutonomia strategica e sovranità tecnologica sono definite elementi irrinunciabili. La sovranità è descritta come capacità di progettare, sviluppare, controllare e proteggere infrastrutture e sistemi critici riducendo la dipendenza da fornitori esterni. Tra i rischi indicati compaiono vulnerabilità intenzionali come backdoor, vulnerabilità non intenzionali, bias e limitazione della libertà d’azione, fino all’impoverimento dell’ecosistema nazionale Defense tech. La risposta proposta è il controllo sul ciclo di vita dei sistemi, dalla progettazione al mantenimento, fondato su capitale umano, dati valorizzati e governati, algoritmi robusti e certificabili, una capacità di calcolo proprietaria tra High performance computing, quantum e reti sicure.Dall’operativo alla macchina interna, decisioni e produttivitàDove sta il punto critico. Nel passaggio dalla promessa alla scala. Sul fronte organizzativo la strategia indica la produttività nello staff come primo passo. L’acquisizione o lo sviluppo di un modello linguistico della Difesa, addestrato su documentazione interna, è definito: “pre-requisito imperativo”. Per trasformare l’assistenza in azione, l’interazione in linguaggio naturale viene collegata alla Robotic process automation, con una evoluzione verso strumenti di Agentic IA per problemi non strutturati, e con l’esigenza di identità digitale sicura.