Logo

Come riconoscere immagini e video generati con l’intelligenza artificiale

I metodi che possono aiutare ad identificare contenuti artificiali a novembre 2025

12 novembre 2025
Condividi

Nel corso del 2025, due aziende leader dell’innovazione digitale, Google e OpenAI, hanno lanciato sul mercato due modelli di IA generativa: Veo 3 e Sora 2. Modelli che sono in grado di generare video estremamente realistici. 

Sempre nel corso di quest’anno, sono iniziati a circolare sui social moltissimi video, che sembrano veri, di politici che rilasciano dichiarazioni, di episodi di cronaca, e deepfake pornografici di donne famose. È circolata anche parecchio la cosiddetta “AI slop”(in italiano “brodaglia IA”), ovvero contenuti IA di bassa qualità creati con l’unico scopo di utilizzare l’algoritmo dei social network per generare like ed engagement. Martino Jerian, amministratore delegato di Amped, azienda che identifica i contenuti artificiali, ha dichiarato a Sky News che «siamo ora capaci in maniera molto semplice di creare qualcosa che sembra una fonte di prova affidabile, sicuramente a un occhio inesperto e spesso anche all’occhio più esperto». 

Di fronte a questo progressivo salto di qualità dell’IA, aziende e centri di ricerca si stanno muovendo per capire come identificare immagini e video generati artificialmente attraverso l’utilizzo di tecniche avanzate. A Facta abbiamo stilato una lista dei metodi più efficaci che chiunque può mettere in pratica per identificarli, con lo scopo di aggiornare la nostra guida del 2023. Sottolineiamo che questa guida vale per i modelli che sono sul mercato ora, e che potrebbe rivelarsi obsoleta nel momento in cui un nuovo modello IA venga lanciato.

La presenza del watermark o dei suoi residui 

I video generati con Sora 2 hanno un watermark visibile, ovvero una filigrana che si muove sullo schermo in tre punti specifici: in alto e in basso a sinistra, e poi a metà altezza a destra. Nel caso di Sora, si tratta di una piccola nuvoletta animata con gli occhi e la scritta “Sora”. Anche altri modelli di IA inseriscono i propri watermark sul contenuto generato artificialmente: ad esempio, il modello di X Grok tende a mostrare in basso a destra la scritta “Grok” con il logo di un cerchio attraversato da una linea, mentre l’IA di Google, Gemini, mostra il proprio watermark in basso a destra, una stella a quattro punte. 

Il primo campanello d’allarme è proprio questo: se un contenuto presenta una filigrana di questo tipo, è stato sicuramente creato con intelligenza artificiale.

Esempi di immagini e video generati con intelligenza artificiale e che presentano i watermark di diversi modelli (Gemini, Sora 2, Grok).

Alcuni utenti però cercano di coprire o eliminare il watermark del contenuto IA per tentare di nasconderne la natura artificiale. Un metodo per farlo è tagliare l’immagine, o il video, nel punto in cui è presente il logo del modello IA. Alternativamente, il watermark viene coperto da altri simboli o loghi. In altri casi, invece, si cerca di rimuoverlo con un effetto di sfocatura, come spesso accade nel caso dei video di Sora 2. In questo caso, dato che il logo di Sora è dinamico e presente in tre diversi punti del video, la sfocatura stona e riduce la qualità e la veridicità delle immagini mostrate.

 

Esempio di video generato dall’intelligenza artificiale Sora 2 in cui il watermark viene nascosto da tre icone.

In altri casi, però, i watermark vengono rimossi senza danneggiare la qualità del contenuto. Infatti, esistono in Rete software che permettono agli utenti di rimuovere il watermark facilmente e senza andare a danneggiare la qualità del contenuto. A questo punto bisogna ricorrere ad altri metodi per poter esprimere un giudizio sulla veridicità dell’immagine o del video. 

Cercare errori e anomalie

I modelli generativi di intelligenza artificiale fanno sempre meno errori nella riproduzione dei soggetti e di una scena, soprattutto quando si tratta dei soggetti inquadrati in primo piano. In realtà, però, se si presta abbastanza attenzione, si possono trovare degli elementi che dovrebbero farci dubitare della veridicità di ciò che stiamo vedendo. 

Ad esempio, molto spesso l’IA non riesce a riprodurre fedelmente i loghi di brand specifici, aziende o istituzioni: in un’immagine IA del tennista Jannik Sinner con un cappellino Nike, lo “swoosh” (ovvero il “baffo”) tipico del marchio era stato rappresentato al contrario. Altri campanelli d’allarme possono essere scritte composte solamente da una serie di numeri e caratteri privi di significato

Un altro indizio è quello di concentrarsi sui partecipanti di contorno alla scena e sullo sfondo, che spesso si muovono a scatti o non si muovono affatto; a volte le persone o gli oggetti scompaiono o si confondono tra di loro quando sovrapposti. Le folle rappresentate, nello specifico, tendono ad essere sfocate, estremamente uniformi nei movimenti, nelle espressioni e nel modo di vestire. 

Dettaglio di un’immagine generata con intelligenza artificiale in cui si vedono calciatori “a metà”, persone poco definite (e molto uniformi) sullo sfondo e scritte incomprensibili.

Da ultimo, e questo vale soprattutto per i video, i contenuti generati con intelligenza artificiale spesso non rispettano le leggi della fisica e della prospettiva: gli oggetti cadono in maniera non realistica o appaiono o scompaiono improvvisamente, le dimensioni sono sproporzionate, le ombre vengono riprodotte in modo errato e gli edifici non presentano una struttura regolare. Come sottolineato da un recente articolo del Global Investigative Journalism Network (GIJN), molto importante è analizzare il punto di fuga dell’immagine: se nella realtà le linee parallele convergono verso un unico punto all’orizzonte, l’intelligenza artificiale spesso non riesce a seguire queste regole e genera delle incongruenze.

 

Screenshot di un video generato con intelligenza artificiale in cui si vede uno scudo della polizia reggersi da solo.

Altre volte, però, i contenuti generati con IA sono talmente “perfetti” che risulta molto difficile, se non impossibile, trovare delle anomalie. In questi casi, come sottolinea ancora il GIJN, la “perfezione” in sé è un campanello d’allarme: diventano indizi rilevanti la levigatezza quasi “plastica” della pelle, i denti troppo uniformi e bianchi, e l’aspetto troppo curato per il contesto in cui la persona rappresentata si trova (ad esempio la pettinatura dei capelli perfetta in una situazione di crisi). 

Una recente guida pubblicata da USA Today, inoltre, fa notare che se i video reali oscillano leggermente quando la persona tiene il telefono, i filmati realizzati con l’intelligenza artificiale sono sempre estremamente fluidi e perfetti: quindi, irrealistici. Inoltre, il rumore di fondo è spesso assente o “pulito”, cosa che non accade nei filmati reali registrati all’aperto. Secondo Hany Farid, professore di informatica all’Università della California intervistato da BBC, «le tre cose da considerare sono la risoluzione, la qualità e la durata». I disinformatori, sottolinea l’esperto, riducono volutamente la risoluzione e la qualità dei video per poter offuscare i dettagli che rivelerebbero la natura artificiale del contenuto. Da ultimo, i video IA sono molto brevi; il più delle volte rimangono sotto i dieci secondi, e se vengono uniti, aggiunge Farid, «è possibile osservare un taglio ogni otto secondi». 

In generale, il consiglio si riassume in un punto solo: osservare con attenzione e spirito critico. Solamente analizzando in questo modo i contenuti sul nostro feed si possono notare difetti (o perfezioni irrealistiche) di immagini e video artificiali.

Trovare la fonte dell’immagine o del video 

Un’altra strategia sempre valida per verificare un contenuto è quella di cercarne la fonte, ossia il primo momento in cui è stato diffuso. Spesso i profili che hanno per primo condiviso il contenuto dichiarano apertamente, attraverso la biografia, il nome dell’account o nella didascalia, che utilizzano i modelli IA per creare le immagini e i video che distribuiscono. 

Esempio di un profilo che si auto classifica “AI creator” e produce contenuti artificiali che fanno milioni di visualizzazioni.

In alcuni casi, la ricerca della fonte può essere il solo modo per svelare la natura artificiale del contenuto. A settembre 2025, sono circolati vari video di presunte scene in cui animali domestici interagivano in maniera tenera con neonati dormienti: si trattava di video estremamente realistici che si sono rivelati falsi dopo una ricerca online, che ha portato a pagine che pubblicavano principalmente contenuti di questo tipo. 

Il confronto con la realtà 

Nel momento in cui ci si trova davanti a un video o un’immagine che mostrano presunti eventi o notizie reali, un ulteriore metodo che si rivela particolarmente utile è quello di cercare in Rete se effettivamente un fatto del genere è accaduto. Se non se ne trova conferma da parte di fonti o testate giornalistiche affidabili, è molto probabile che ci troviamo di fronte ad un falso generato con IA. Un video diffuso con intento razzista, circolato lo scorso agosto, ritraeva un presunto aereo della flotta Air India con una capra tra i bagagli, ma si trattava di un falso: gli aerei della compagnia di bandiera indiana sono differenti da quello inquadrato nel video in analisi. Inoltre, nessuna fonte affidabile aveva riportato questo particolare evento.

In generale, è buona pratica fare un confronto con le immagini reali per capire se ci si trova di fronte a qualcosa di vero. A fine ottobre 2025, è circolato sui social il video di un occhio di un ciclone che viene descritto come quello dell’uragano Melissa. Comparato con le immagini reali registrate dai piloti dell’Aeronautica Militare degli Stati Uniti che avevano sorvolato il ciclone per motivi scientifici, si potevano intuire che il video era un falso .Una dinamica simile era successa dopo il furto al Museo del Louvre, a Parigi, avvenuto a fine ottobre 2025. Nei giorni successivi alla rapina, sui social erano circolati vari filmati che mostravano dei ladri in azione al museo. Tutti i filmati però erano falsi, e lo si poteva dedurre dai dettagli delle scene (indumenti dei rapinatori, architettura degli edifici, movimenti dei ladri non realistici), che non combaciavano con le immagini reali diffuse dopo essere state verificate da alcuni media francesi. 

Potrebbero interessarti
Segnala su Whatsapp