La guerra non passa più soltanto dai carri armati o dalle sanzioni economiche. Si muove, piuttosto, dentro gli algoritmi, nelle pieghe invisibili delle piattaforme digitali, nella capacità di modellare percezioni prima ancora che opinioni. È qui che si gioca la partita più delicata per le democrazie contemporanee: quella della guerra cognitiva. Un terreno scivoloso, ancora in larga parte inesplorato dal legislatore, ma già pienamente operativo nella pratica. Formiche.net ne ha parlato con Andrea Gatti, consigliere giuridico della vicepresidente del Garante privacy e docente di diritto pubblico comparato all’Università di Padova.Professore, si parla sempre più spesso di guerra cognitiva. Cosa è cambiato rispetto alla tradizionale disinformazione?C’è stato un salto di qualità netto. Non siamo più di fronte soltanto alla diffusione di contenuti falsi o manipolati. Il vero terreno di scontro è diventato l’ambiente informativo in cui quei contenuti circolano. Non si tratta più di cosa viene detto o di come viene detto, ma delle condizioni strutturali che determinano cosa vediamo, quando lo vediamo e perché. È una trasformazione profonda, perché sposta il controllo dal messaggio all’ecosistema.In questo contesto, la profilazione assume un ruolo centrale. Perché?Perché la profilazione è l’infrastruttura di questo nuovo tipo di conflitto. Se si dispone di una quantità sufficiente di dati e si è in grado di incrociarli efficacemente, diventa possibile prevedere i comportamenti degli utenti. E prevedere significa anche orientare. A quel punto si è nelle condizioni di veicolare contenuti mirati a specifici segmenti di popolazione, con un grado di precisione estremamente elevato.Parliamo quindi di micro-targeting spinto?Esattamente. La profilazione non si basa su un solo elemento, ma su una molteplicità di fattori, spesso anche opachi agli stessi programmatori. Si costruiscono modelli che arrivano a intercettare inclinazioni, emozioni, reazioni quasi impercettibili. Il tempo che trascorriamo su un contenuto, il modo in cui interagiamo, perfino certe espressioni del volto: tutto contribuisce a delineare un profilo. Questo consente non solo di leggere il comportamento, ma di incidere sulla formazione stessa del pensiero. È qui che si entra in una dimensione di manipolazione molto avanzata.Qual è il ruolo delle piattaforme e dei social network in questo scenario?Sono il principale terreno operativo. È lì che la profilazione avviene in modo sistematico. Alcune piattaforme, TikTok in primis, mostrano una particolare capacità di intervenire sulla visibilità dei contenuti. Non si tratta necessariamente di disinformazione diretta, ma di una modulazione dell’esposizione alle informazioni. Ci sono evidenze sul fatto che, su temi sensibili dal punto di vista geopolitico, determinati contenuti vengano resi meno visibili. Questo altera la percezione della realtà da parte degli utenti.Sta dicendo che il problema non è tanto il contenuto, quanto la sua distribuzione?Sì. Il punto centrale non è limitare ciò che viene detto, ma comprendere e regolare i meccanismi che determinano la diffusione dei contenuti. È una questione di infrastruttura. Se non si interviene lì, qualsiasi intervento sul contenuto rischia di essere inefficace o addirittura lesivo della libertà di espressione.L’Europa, però, si è dotata di strumenti normativi importanti. Sono sufficienti?L’Unione europea ha fatto passi avanti significativi. Il GDPR e l’AI Act offrono basi giuridiche rilevanti. In particolare, l’AI Act individua pratiche che devono essere vietate perché comportano rischi inaccettabili per i diritti fondamentali, come il social scoring o alcune forme di polizia predittiva. Tuttavia, questi strumenti non sono ancora sufficienti a coprire l’intero spettro del problema, soprattutto per quanto riguarda la profilazione applicata all’informazione politica.Dove si colloca allora il vero punto critico?Nel fatto che l’informazione politica, quella che circola fuori dai canali ufficiali, resta sostanzialmente priva di una disciplina specifica. L’Unione europea ha regolato la pubblicità politica, ma quella è solo una parte del fenomeno. Il problema più rilevante riguarda i contenuti che passano attraverso influencer, creator e reti informali. È lì che il micro-targeting può incidere in modo più profondo e meno trasparente.Questo apre un problema di tenuta democratica?Senza dubbio. Siamo di fronte a un rischio di inquinamento del processo democratico. Se gli elettori ricevono informazioni diverse, selezionate in base a profili psicologici e comportamentali, viene meno il presupposto di uno spazio pubblico condiviso. E senza uno spazio pubblico comune, la democrazia si indebolisce.Qual è, allora, la priorità per il legislatore europeo?Riconoscere la profilazione come un rischio sistemico. Oggi non lo è ancora pienamente. Servono norme più stringenti, con meno margini di deroga, soprattutto quando si tratta di informazione politica. La profilazione in questo ambito dovrebbe essere fortemente limitata, se non vietata. È una questione di tutela dei diritti fondamentali e, in ultima analisi, di salvaguardia delle istituzioni democratiche.