Logo

Guerra, propaganda e robot: la crisi tra Israele-Iran è la prima in cui l’intelligenza artificiale diventa la protagonista della disinformazione

Factnameh ha documentato come immagini e video falsi abbiano distorto la percezione pubblica e segnato l’inizio di una nuova era di propaganda digitale.

16 luglio 2025
Condividi

Un’analisi di Factnameh, organizzazione iraniana di fact-checking con sede in Canada, membro dell’International Fact-Checking Network (IFCN)

Da quando abbiamo lanciato Factnameh nel 2017 per combattere la disinformazione in Iran, abbiamo monitorato una buona dose di eventi sensibili: elezioni presidenziali (tre per ora, e altre seguiranno), proteste nazionali, repressioni e le continue campagne di disinformazione che affliggono i social media iraniani. Ma nulla ci aveva preparato alla portata e alla velocità della disinformazione a cui abbiamo assistito durante il conflitto Iran-Israele del 2025.

Questo è stato il primo significativo scontro militare in cui l’intelligenza artificiale (IA) generativa ha svolto un ruolo centrale nel plasmare la percezione pubblica e quanto abbiamo visto è probabilmente solo l’anteprima di ciò che ci aspetta in futuro.

Dalle proteste alla propaganda: un modello per la disinformazione

Nelle crisi del passato – che si trattasse di disastri naturali, elezioni o brutali repressioni – la disinformazione si presentava spesso in forme prevedibili: video vecchi, foto riciclate e immagini con didascalie fuorvianti. Sono tattiche che nel corso del tempo ci siamo abituati a individuare rapidamente. In assenza di informazioni in tempo reale, soprattutto dove l’accesso ai media è limitato, le persone condividono ciò che possono. Si crea un vuoto informativo che i malintenzionati sono sempre pronti a colmare. Questo è stato vero durante le proteste del 2022 che hanno scatenato il movimento iraniano “Donna, Vita, Libertà” e anche durante le precedenti crisi nella regione. Ma il conflitto Iran-Israele – in particolare gli attacchi del giugno 2025 – ha rappresentato un punto di svolta.

Teheran in fiamme, la verità in dubbio

Il 13 giugno 2025, quando iniziarono a circolare notizie di molteplici esplosioni a Teheran, noi di Factnameh eravamo pronti alla solita ondata di immagini vecchie e fuori contesto, falsamente attribuite all’evento in corso. Ma accadde qualcosa di sorprendente: non ne trovammo nessuna. I social media furono invece inondati di contenuti autentici, crudi e realizzati direttamente dai cittadini. Non c’era alcun vuoto informativo da colmare. L’immediatezza e l’intensità di ciò che era accaduto lasciavano poco spazio – o bisogno – di immagini riciclate. 

Per ironia della sorte, questa volta la disinformazione funzionò in maniera diametralmente opposta al solito: diverse foto autentiche vennero ingiustamente etichettate come false. Un’immagine particolarmente straziante di un cadavere tra le macerie, che in molti avevano sostenuto fosse fuori contesto e provenisse in realtà dalla Siria, si rivelò essere autentica e proveniente proprio da Teheran.

24 ore dopo: un nuovo tipo di guerra informativa ha inizio

Subito dopo il contrattacco missilistico dell’Iran contro Israele, è emersa una nuova ondata di disinformazione, questa volta con l’ausilio di video e immagini generati dall’intelligenza artificiale. Le immagini erano ben fatte, drammatiche e, in molti casi, completamente inventate. Il centro di Tel Aviv completamente distrutto, aerei F-35 abbattuti, crateri nelle città israeliane, proteste mai avvenute: video e immagini creati con l’AI hanno rapidamente inondato i social media in persiano, urdu, arabo e anche quelli occidentali. Ciò che ha reso questo momento diverso da qualsiasi precedente è stata la quantità, la sofisticazione e l’accessibilità degli strumenti utilizzati per generare disinformazione con l’IA.

“Il Giorno del giudizio a Tel Aviv”: l’intelligenza artificiale incontra la propaganda di Stato

Uno dei primi esempi virali di disinformazione generata con l’IA è arrivato dall’account ufficiale su X del Tehran Times, un quotidiano in lingua inglese affiliato allo Stato iraniano. Il video, intitolato “#Breaking Doomsday in Tel Aviv” (in italiano “#Breaking ‘Giorno del Giudizio a Tel Aviv’”) , mostrava una vista dall’alto di edifici ridotti in macerie e di una città in rovina. Ma il video non era reale; proveniva da un account TikTok arabo che crea regolarmente video e immagini di “scenari apocalittici fantasy” generati dall’intelligenza artificiale. Anche dopo essere stato smentito da Factnameh e segnalato con una Community Note, il post è rimasto online.

Screenshot di Factnameh dell’account X di Tehran Times

Diverse altre testate giornalistiche iraniane, come Fars News, Nour News e Shargh, hanno presto seguito l’esempio di Teheran Times, pubblicando una compilation video intitolata “Tel Aviv prima e dopo la guerra con l’Iran”. Quasi tutte le riprese del video sono state generate dall’intelligenza artificiale: un miraggio digitale spacciato per notizia.

Screenshot di Factnameh

La leggenda del F-35 abbattuto

La narrazione falsa più dura a morire è stata probabilmente quella secondo cui l’Iran avrebbe abbattuto con successo diversi caccia israeliani F-35. A dimostrazione di questo successo della Repubblica Islamica sono state diffuse diverse immagini online, che mostravano i rottami dei velivoli, ma non hanno retto alla verifica della loro autenticità. 

Una foto, ampiamente trasmessa dalla televisione di stato iraniana e dai social media in lingua persiana, presenta difetti evidenti: una Stella di David fuori posto, l’erba intatta intorno al luogo dell’impatto, le dimensioni irrealistiche e un motore che brilla in modo innaturale. Utilizzando uno strumento di analisi basato sull’intelligenza artificiale, abbiamo stimato con il 98 per cento di certezza che l’immagine fosse stata generata artificialmente.

Screenshot di Factnameh

Un’altra immagine, ancora più ridicola nelle sue proporzioni, mostra un jet mezzo sepolto nella sabbia con una folla di persone attorno, ed è stata fatta circolare sui social in modo virale, accompagnata da commenti di esultanza, da parte di numerosi utenti pro-Repubblica Islamica.

Screenshot di Factnameh

La narrazione dell’abbattimento degli F-35 israeliani è rimasta in circolazione per settimane, ripetuta da funzionari statali e media iraniani, finché, finalmente, il 10 luglio, è stata ritrattata timidamente dalla televisione di Stato. Ma invece di ammettere l’abbaglio preso, la ritrattazione ha inquadrato la vicenda come una “operazione psicologica sionista”.

Altre falsità: missili, crateri e proteste immaginarie

La campagna di disinformazione non si è fermata ai jet militari e alle città in rovina. Ecco un breve riassunto di alcuni degli esempi più eclatanti:

  • Press TV ha pubblicato (e rapidamente cancellato) un falso video di Tel Aviv colpita da un missile iraniano, con un’esplosione da cartone animato.
Screenshot di Factnameh
  • L’immagine generata dall’intelligenza artificiale di un cratere in una città non meglio identificata è stata condivisa su Instagram e YouTube come prova di un attacco iraniano su Israele, nonostante provenisse da un account artistico che l’aveva realizzata prima dell’inizio della guerra.
Screenshot di Factnameh
  • Le voci infondate secondo cui il Pakistan avrebbe inviato 750 missili balistici in aiuto dell’Iran sono state supportate da video, generati dall’intelligenza artificiale, che mostravano file di camion carichi di armamenti, ma con autisti fantasma e persone che si volatilizzano a mezz’aria.
Screenshot di Factnameh
  • Un video che mostrerebbe cittadini israeliani che protestano per la pace con cartelli (incomprensibili) in ebraico si è poi rivelato essere interamente generato dall’intelligenza artificiale, molto probabilmente utilizzando lo strumento Veo di Google.

Screenshot di Factnameh
  • Ma anche l’altra parte del conflitto non è innocente: è infatti circolato un video simile a quello appena descritto, sempre generato dall’intelligenza artificiale, che mostrava però cittadini iraniani esultare al grido di “Amiamo Israele!”. Altrettanto falso, altrettanto assurdo.

Una nuova pericolosa era di propaganda digitale

Questo è stato il primo importante scontro militare in cui la disinformazione generata dall’IA ha operato su larga scala, e sicuramente non sarà l’ultimo. La barriera d’ingresso è ormai quasi inesistente: chiunque abbia uno smartphone, con un semplice prompt può creare contenuti falsi, e convincenti, in pochi minuti.

Questa “democratizzazione dell’inganno” è allo stesso tempo terrificante e affascinante. Da un lato, facilita lo storytelling da parte dei cittadini. Dall’altro, fornisce a propagandisti e truffatori gli strumenti per confondere le acque come mai prima d’ora. 

Ancora più preoccupante è la reazione del pubblico. Con la crescente diffusione di contenuti falsi creati con l’IA, la fiducia si erode. Le persone iniziano a mettere in discussione tutto quello che vedono, persino video e immagini reali ma che contraddicono i loro pregiudizi. Un video scioccante (e autentico) di un razzo israeliano che colpisce una strada trafficata di Teheran, facendo volare in aria le auto, appena apparso è subito stato liquidato da molti utenti online come propaganda di regime generata dall’IA. Quello a cui stiamo assistendo ora è il dilagare di una sorta di iper-cinismo, in cui persino la verità è sospettata di essere finzione. 

Potrebbero interessarti
Segnala su Whatsapp