Fino a ieri il pericolo era credere a un falso generato dall’intelligenza artificiale. Oggi la minaccia è opposta e più insidiosa, dove non si crede più a ciò che è vero. È l’AIpocondria, un pregiudizio cognitivo che ci spinge a diagnosticare come “artificiale” qualunque contenuto digitale, anche quando è autentico e verificabile, cadendo nella trappola del “dubbio a ogni costo” che neutralizza la realtà. Un fenomeno che trasforma la sfiducia in un’arma politica, come dimostra il caso del video di Benjamin Netanyahu, accusato di essere un deepfake nonostante le prove, chiare ed evidenti, che dimostrano il contrario.Ascolta “AIpocondria: quando non crediamo più alla realtà” su Spreaker.È un fenomeno che i ricercatori delle università Purdue ed Emory avevano anticipato in uno studio pubblicato nel 2025 sull’American Political Science Review, spiegando come in un clima di sfiducia generalizzata, chiunque possa accusare le prove di essere false per ottenerne un vantaggio. Più il dubbio è diffuso, più questo meccanismo funziona. E oggi il dubbio non è mai stato così pervasivo, mettendo a rischio la capacità dei cittadini di distinguere i fatti dalle opinioni.Il caso Netanyahu: quando il sospetto diventa un’arma di distrazioneNel marzo 2026, il governo israeliano pubblica online la conferenza stampa di Benjamin Netanyahu. Nel giro di poche ore, migliaia di account sostengono la tesi della morte di Netanyahu e accusano Israele di diffondere un video generato dall’intelligenza artificiale per nasconderlo. Le “prove” citate dai sostenitori della teoria del complotto si basano su versioni del video a bassa risoluzione in cui la mano del premier sembrava avere sei dita. Come verificato da Open Fact-checking, l’analisi ad alta risoluzione mostrava chiaramente cinque dita.Nonostante Netanyahu si sia mostrato vivo tre giorni dopo in un bar nei pressi di Gerusalemme, mostrando al mondo di possedere 5 dita come ogni essere umano, le accuse sono proseguite. Al contrario, l’AIpocondria ha fatto diventare questa smentita come ulteriore prova del fantomatico inganno digitale, individuando inesistenti segnali dell’AI generativa.Il paradosso: la propaganda AI esiste e alimenta il caosL’AIpocondria non nasce dal nulla, ma si nutre di una minaccia reale ben nota e riscontrata negli ultimi anni. Fin dall’inizio dell’invasione russa in Ucraina, la propaganda a sostegno del Cremlino ha inondato i social di contenuti generati con l’AI contro Zelensky e gli stessi cittadini ucraini. Non sono mancati contenuti opposti, diffusi dai sostenitori di Kiev.Ulteriori esempi di manipolazione della realtà, attraverso l’uso dell’Intelligenza Artificiale generativa, sono stati riscontrati in numerosi episodi legati alla sfera elettorale e democratica occidentale, o nei momenti di crisi e conflitti, come quello a Gaza a seguito della strage del 7 ottobre ad opera dei terroristi di Hamas.Non si tratta di infodemia, ma di un’opera di propaganda che produce l’effetto collaterale devastante dell’innalzamento della sfiducia, al punto che il vero e il falso finiscono nello stesso calderone, quando tutto può essere finto e nulla più degno di verità.Chi alimenta il fenomenoQuattro categorie di soggetti tengono in vita l’AIpocondria per ragioni molto diverse.Da una parte c’è il cosiddetto “detective digitale improvvisato“, convinto di saper riconoscere l’AI meglio degli esperti, usando strumenti automatici inaffidabili che amplificano piccoli difetti e ignorando il problema della compressione delle immagini e dei video.C’è poi il “propagandista consapevole“, il quale sa che il contenuto è autentico, ma che opera per interesse politico a farlo sembrare falso. L’AIpocondria, in questo caso, è lo scudo perfetto del propagandista per “sfuggire” alle sue responsabilità. Un esempio? Il caso del video di Zelensky a Kupiansk.Un altro protagonista è il “creator“, intenzionato a monetizzare. Su piattaforme come X, si possono guadagnare anche 27 mila dollari in due settimane attraverso la condivisione di video generati con l’AI. Attraverso questa possibilità di guadagno, alimentare il dubbio può diventare un business estremamente redditizio.Infine, c’è l’intelligenza artificiale usata impropriamente come arbitro della verità. Modelli come Grok su X, se interrogati sulla natura di un video, possono fornire verdetti errati, alimentando il sospetto collettivo.Un pericolo per la democrazia: il “Dividendo del bugiardo”Il vero rischio dell’AIpocondria è democratico. Se un politico può liquidare un’inchiesta video o una prova di corruzione come “un’allucinazione dell’intelligenza artificiale”, la responsabilità politica svanisce. È il “dividendo del bugiardo“, dove in un ambiente di incertezza informativa, il leader non deve più scusarsi, gli basta seminare il dubbio.I ricercatori hanno identificato due strategie attraverso cui chi è al potere può sfruttare un ambiente di sfiducia generalizzata.La prima è seminare incertezza informativa, dove il politico non nega lo specifico, ma dice che “non si può sapere cosa è vero con tanta disinformazione in giro”. La seconda è il raduno oppositivo, dove le accuse vengono inquadrate come un attacco dei nemici politici e dei media, invitando i sostenitori a stringersi attorno al leader.Il collegamento con l’AIpocondria è evidente: più la gente è convinta che tutto possa essere AI, più è facile liquidare qualunque prova scomoda come artificiale. Chi semina dubbio diffuso, che sia per guadagno, per propaganda o per convinzione genuina, sta inconsapevolmente costruendo lo scudo migliore per chi vuole sfuggire alla responsabilità.Come difendersi dall’AIpocondria e dal “Dividendo del bugiardo”Lo studio dell’American Political Science Review documenta però anche il rimedio. Secondo i ricercatori, il Fact-checking professionale è l’unico strumento in grado di eliminare il vantaggio reputazionale guadagnato attraverso la falsa accusa di disinformazione. Tuttavia, non è sufficiente. Per questo, gli utenti devono essere consapevoli del fenomeno e prendere atto di tre semplici “strategie” per difendersi non solo dall’AIpocondria, ma anche dal “Dividendo del bugiardo”:Non fidatevi della bassa risoluzione dei contenuti social. Gli zoom sui fotogrammi compressi, alterati attraverso la condivisione sulle piattaforme, creano artefatti digitali che non sono riconducibili ai difetti dell’AI.Cercate la fonte primaria, così da poter verificare sempre il materiale originale ad alta definizione.Non usate mai e poi mai l’AI per verificare l’AI. Modelli come Grok, come abbiamo più volte verificato e dimostrato, possono sbagliare e generare ulteriore disinformazione.{ "@context": "https://schema.org", "@type": "FAQPage", "mainEntity": [{ "@type": "Question", "name": "Cos'è l'AIpocondria?", "acceptedAnswer": { "@type": "Answer", "text": "L'AIpocondria è un pregiudizio cognitivo che spinge a ritenere artificiale o generato dall'intelligenza artificiale un contenuto digitale (video, audio o foto) che è in realtà autentico e verificabile." } }]}L'articolo Netanyahu morto e sostituito dall’AI? Cos’è la trappola dell’AIpocondria e come difendersi proviene da Open.