
Guerra, propaganda e robot: la crisi tra Israele-Iran è la prima in cui l’intelligenza artificiale diventa la protagonista della disinformazione
Factnameh ha documentato come immagini e video falsi abbiano distorto la percezione pubblica e segnato l’inizio di una nuova era di propaganda digitale.
Un’analisi di Factnameh, organizzazione iraniana di fact-checking con sede in Canada, membro dell’International Fact-Checking Network (IFCN)
Da quando abbiamo lanciato Factnameh nel 2017 per combattere la disinformazione in Iran, abbiamo monitorato una buona dose di eventi sensibili: elezioni presidenziali (tre per ora, e altre seguiranno), proteste nazionali, repressioni e le continue campagne di disinformazione che affliggono i social media iraniani. Ma nulla ci aveva preparato alla portata e alla velocità della disinformazione a cui abbiamo assistito durante il conflitto Iran-Israele del 2025.
Questo è stato il primo significativo scontro militare in cui l’intelligenza artificiale (IA) generativa ha svolto un ruolo centrale nel plasmare la percezione pubblica e quanto abbiamo visto è probabilmente solo l’anteprima di ciò che ci aspetta in futuro.
Dalle proteste alla propaganda: un modello per la disinformazione
Nelle crisi del passato – che si trattasse di disastri naturali, elezioni o brutali repressioni – la disinformazione si presentava spesso in forme prevedibili: video vecchi, foto riciclate e immagini con didascalie fuorvianti. Sono tattiche che nel corso del tempo ci siamo abituati a individuare rapidamente. In assenza di informazioni in tempo reale, soprattutto dove l’accesso ai media è limitato, le persone condividono ciò che possono. Si crea un vuoto informativo che i malintenzionati sono sempre pronti a colmare. Questo è stato vero durante le proteste del 2022 che hanno scatenato il movimento iraniano “Donna, Vita, Libertà” e anche durante le precedenti crisi nella regione. Ma il conflitto Iran-Israele – in particolare gli attacchi del giugno 2025 – ha rappresentato un punto di svolta.
Teheran in fiamme, la verità in dubbio
Il 13 giugno 2025, quando iniziarono a circolare notizie di molteplici esplosioni a Teheran, noi di Factnameh eravamo pronti alla solita ondata di immagini vecchie e fuori contesto, falsamente attribuite all’evento in corso. Ma accadde qualcosa di sorprendente: non ne trovammo nessuna. I social media furono invece inondati di contenuti autentici, crudi e realizzati direttamente dai cittadini. Non c’era alcun vuoto informativo da colmare. L’immediatezza e l’intensità di ciò che era accaduto lasciavano poco spazio – o bisogno – di immagini riciclate.
Per ironia della sorte, questa volta la disinformazione funzionò in maniera diametralmente opposta al solito: diverse foto autentiche vennero ingiustamente etichettate come false. Un’immagine particolarmente straziante di un cadavere tra le macerie, che in molti avevano sostenuto fosse fuori contesto e provenisse in realtà dalla Siria, si rivelò essere autentica e proveniente proprio da Teheran.
24 ore dopo: un nuovo tipo di guerra informativa ha inizio
Subito dopo il contrattacco missilistico dell’Iran contro Israele, è emersa una nuova ondata di disinformazione, questa volta con l’ausilio di video e immagini generati dall’intelligenza artificiale. Le immagini erano ben fatte, drammatiche e, in molti casi, completamente inventate. Il centro di Tel Aviv completamente distrutto, aerei F-35 abbattuti, crateri nelle città israeliane, proteste mai avvenute: video e immagini creati con l’AI hanno rapidamente inondato i social media in persiano, urdu, arabo e anche quelli occidentali. Ciò che ha reso questo momento diverso da qualsiasi precedente è stata la quantità, la sofisticazione e l’accessibilità degli strumenti utilizzati per generare disinformazione con l’IA.
“Il Giorno del giudizio a Tel Aviv”: l’intelligenza artificiale incontra la propaganda di Stato
Uno dei primi esempi virali di disinformazione generata con l’IA è arrivato dall’account ufficiale su X del Tehran Times, un quotidiano in lingua inglese affiliato allo Stato iraniano. Il video, intitolato “#Breaking Doomsday in Tel Aviv” (in italiano “#Breaking ‘Giorno del Giudizio a Tel Aviv’”) , mostrava una vista dall’alto di edifici ridotti in macerie e di una città in rovina. Ma il video non era reale; proveniva da un account TikTok arabo che crea regolarmente video e immagini di “scenari apocalittici fantasy” generati dall’intelligenza artificiale. Anche dopo essere stato smentito da Factnameh e segnalato con una Community Note, il post è rimasto online.

Diverse altre testate giornalistiche iraniane, come Fars News, Nour News e Shargh, hanno presto seguito l’esempio di Teheran Times, pubblicando una compilation video intitolata “Tel Aviv prima e dopo la guerra con l’Iran”. Quasi tutte le riprese del video sono state generate dall’intelligenza artificiale: un miraggio digitale spacciato per notizia.

La leggenda del F-35 abbattuto
La narrazione falsa più dura a morire è stata probabilmente quella secondo cui l’Iran avrebbe abbattuto con successo diversi caccia israeliani F-35. A dimostrazione di questo successo della Repubblica Islamica sono state diffuse diverse immagini online, che mostravano i rottami dei velivoli, ma non hanno retto alla verifica della loro autenticità.
Una foto, ampiamente trasmessa dalla televisione di stato iraniana e dai social media in lingua persiana, presenta difetti evidenti: una Stella di David fuori posto, l’erba intatta intorno al luogo dell’impatto, le dimensioni irrealistiche e un motore che brilla in modo innaturale. Utilizzando uno strumento di analisi basato sull’intelligenza artificiale, abbiamo stimato con il 98 per cento di certezza che l’immagine fosse stata generata artificialmente.

Un’altra immagine, ancora più ridicola nelle sue proporzioni, mostra un jet mezzo sepolto nella sabbia con una folla di persone attorno, ed è stata fatta circolare sui social in modo virale, accompagnata da commenti di esultanza, da parte di numerosi utenti pro-Repubblica Islamica.

La narrazione dell’abbattimento degli F-35 israeliani è rimasta in circolazione per settimane, ripetuta da funzionari statali e media iraniani, finché, finalmente, il 10 luglio, è stata ritrattata timidamente dalla televisione di Stato. Ma invece di ammettere l’abbaglio preso, la ritrattazione ha inquadrato la vicenda come una “operazione psicologica sionista”.
Altre falsità: missili, crateri e proteste immaginarie
La campagna di disinformazione non si è fermata ai jet militari e alle città in rovina. Ecco un breve riassunto di alcuni degli esempi più eclatanti:
- Press TV ha pubblicato (e rapidamente cancellato) un falso video di Tel Aviv colpita da un missile iraniano, con un’esplosione da cartone animato.

- L’immagine generata dall’intelligenza artificiale di un cratere in una città non meglio identificata è stata condivisa su Instagram e YouTube come prova di un attacco iraniano su Israele, nonostante provenisse da un account artistico che l’aveva realizzata prima dell’inizio della guerra.

- Le voci infondate secondo cui il Pakistan avrebbe inviato 750 missili balistici in aiuto dell’Iran sono state supportate da video, generati dall’intelligenza artificiale, che mostravano file di camion carichi di armamenti, ma con autisti fantasma e persone che si volatilizzano a mezz’aria.

- Un video che mostrerebbe cittadini israeliani che protestano per la pace con cartelli (incomprensibili) in ebraico si è poi rivelato essere interamente generato dall’intelligenza artificiale, molto probabilmente utilizzando lo strumento Veo di Google.

- Ma anche l’altra parte del conflitto non è innocente: è infatti circolato un video simile a quello appena descritto, sempre generato dall’intelligenza artificiale, che mostrava però cittadini iraniani esultare al grido di “Amiamo Israele!”. Altrettanto falso, altrettanto assurdo.
Una nuova pericolosa era di propaganda digitale
Questo è stato il primo importante scontro militare in cui la disinformazione generata dall’IA ha operato su larga scala, e sicuramente non sarà l’ultimo. La barriera d’ingresso è ormai quasi inesistente: chiunque abbia uno smartphone, con un semplice prompt può creare contenuti falsi, e convincenti, in pochi minuti.
Questa “democratizzazione dell’inganno” è allo stesso tempo terrificante e affascinante. Da un lato, facilita lo storytelling da parte dei cittadini. Dall’altro, fornisce a propagandisti e truffatori gli strumenti per confondere le acque come mai prima d’ora.
Ancora più preoccupante è la reazione del pubblico. Con la crescente diffusione di contenuti falsi creati con l’IA, la fiducia si erode. Le persone iniziano a mettere in discussione tutto quello che vedono, persino video e immagini reali ma che contraddicono i loro pregiudizi. Un video scioccante (e autentico) di un razzo israeliano che colpisce una strada trafficata di Teheran, facendo volare in aria le auto, appena apparso è subito stato liquidato da molti utenti online come propaganda di regime generata dall’IA. Quello a cui stiamo assistendo ora è il dilagare di una sorta di iper-cinismo, in cui persino la verità è sospettata di essere finzione.
- Questa foto di una famiglia di contadini è stata creata artificialmenteQuesta foto di una famiglia di contadini è stata creata artificialmente
- I deepfake pornografici riflettono il sessismo della nostra societàI deepfake pornografici riflettono il sessismo della nostra società