Logo

I classici della truffa sono tornati, ma stavolta c’è di mezzo l’intelligenza artificiale

I truffatori utilizzano strumenti di IA generativa per realizzare scam sempre più sofisticate e difficili da riconoscere

30 luglio 2025
Condividi

Per mesi, migliaia di persone in tutta Italia hanno ricevuto lo stesso tipo di messaggio sul proprio cellulare: «Ciao mamma, ho perso il telefono. Questo è il mio nuovo numero. Puoi farmi un bonifico?». Un tono familiare, qualche parola affettuosa, e una richiesta di aiuto che in alcuni casi poteva sembrare abbastanza credibile da spingere più di qualcuno a cedere. Si tratta di scamming, cioè una truffa digitale che punta a sfruttare fiducia, emozione e confusione per sottrarre denaro.

Ma questi tentativi non sono più solo il risultato di messaggi o email scritti male da truffatori improvvisati. Lo scamming sta diventando sempre più sofisticato, e a guidare questa evoluzione è l’intelligenza artificiale. Oggi, i truffatori utilizzano strumenti di IA generativa per creare testi credibili, voci artificiali indistinguibili da quelle reali e persino video e audio deepfake, capaci di imitare perfettamente l’aspetto di altre persone. Il risultato è una nuova frontiera dell’inganno, in cui distinguere realtà e finzione è sempre più difficile.

Scam: truffe digitali 

Quando pensiamo ai truffatori, l’immaginazione ci porta spesso a scene da film: persone scaltre che si muovono tra la folla, pronte a ingannare con un sorriso e una stretta di mano. Ma oggi, quelle strade e piazze fisiche sono state sostituite da spazi virtuali come forum online, social network, piattaforme digitali dove si muove nell’ombra chi ha come obiettivo quello di raggirare altri utenti. Nel mondo digitale, le truffe non si giocano più faccia a faccia, ma attraverso schermi e codici. Identità costruite ad arte, frutto di un mix tra dati rubati e dettagli inventati. Al posto di uno sguardo o di un tono di voce rassicurante, ora ci sono email camuffate da comunicazioni ufficiali, siti web progettati per sembrare autentici, messaggi studiati per far leva sulle emozioni e ottenere fiducia.

Il report “Global state of scams” – realizzato da Feedzai e dalla Global anti-scam alliance (GASA), due organizzazione che hanno come obiettivo quello di proteggere i consumatori e le istituzioni dalle truffe – rivela che i consumatori inclusi nel campione intervistato si sentono sempre più sicuri nella loro capacità di riconoscere e fermare le truffe. Eppure nonostante questa forte fiducia, le truffe continuano a rappresentare una minaccia costante, con perdite globali per i consumatori che superano i mille miliardi di dollari, pari a circa l’1 per cento del PIL mondiale. 

Shop online, social network, siti di incontri e caselle di posta elettronica sono ormai diventati un terreno ideale per le truffe digitali. Queste piattaforme, grazie alla loro apparente affidabilità, conferiscono ai raggiri un’aura di legittimità e consentono ai truffatori di raggiungere un’enorme platea di potenziali vittime, spesso meno attente proprio perché si muovono in contesti percepiti come sicuri. Tra i grandi classici della truffa rivisitati in chiave digitale, spicca lo schema dell’anticipo spese. Una richiesta ingannevole travestita da messaggio urgente, magari firmata da un ente rispettabile o da qualcuno che chiede aiuto, spesso un presunto familiare. Il copione è sempre lo stesso: in cambio di un piccolo aiuto economico immediato, si promettono ritorni astronomici. 

Eppure, l’anticipo spese non è l’unica truffa d’altri tempi a essere tornata in auge. Anche il famigerato schema Ponzi, che prende il nome da Charles Ponzi, l’italoamericano che negli anni ’20 truffò migliaia di persone con un finto investimento in francobolli, continua a reinventarsi nell’era digitale. Il principio è tanto semplice quanto seducente. Qualcuno afferma «tu mi dai dei soldi, io te ne restituisco molti di più». Una promessa di guadagno facile, rapido e sicuro, che dovrebbe immediatamente accendere qualche sospetto. Eppure, ancora oggi, continua a mietere vittime.

Le persone cadono vittima delle truffe perché queste fanno leva su emozioni umane fondamentali come l’avidità, l’amore o la paura. E oggi questo tipo di imbrogli stanno diventando sempre più credibili ed efficaci grazie all’uso di contenuti creati utilizzando l’intelligenza artificiale. 

Sempre più IA per truffare

Secondo il report globale già citato di GASA sulle truffe, il 31 per cento degli intervistati ha dichiarato di non sapere con certezza se l’intelligenza artificiale fosse coinvolta nei raggiri subiti. Un dato che evidenzia quanto le frodi stiano diventando sempre più sofisticate e difficili da riconoscere, anche per chi ne è direttamente colpito. 

I truffatori, o scammer, continuano a sfruttare le piattaforme e i canali di comunicazione più utilizzati. Secondo GASA le telefonate e i messaggi di testo restano i metodi di contatto iniziale più comuni, ma non mancano incursioni attraverso WhatsApp, Instagram e Gmail, strumenti ormai parte integrante della quotidianità di milioni di persone e per questo terreno fertile per inganni sempre più subdoli.

Secondo i dati di Chainabuse, una piattaforma open-source dove segnalare frodi dell’azienda TRM Labs, tra maggio 2024 e aprile 2025 le segnalazioni di truffe in cui era coinvolta l’IA generativa sono aumentate del 456 per cento rispetto allo stesso periodo del 2023-24. Un dato che mostra chiaramente come la rapida diffusione degli strumenti di intelligenza artificiale generativa negli ultimi anni abbia contribuito in modo significativo all’aumento delle frodi supportate da tecnologie IA.

Percentuale di aumento delle segnalazioni di truffe facilitate dall’intelligenza artificiale generativa su Chainabuse, dal 1° maggio 2022 al 30 aprile 2025. Fonte: TRM lab.

Gli strumenti di IA generativa permettono ai truffatori di produrre testi, codici, immagini e video sempre più simili a quelli creati da esseri umani e di farlo su larga scala. Una tecnologia potente, che viene già sfruttata per raffinare le classiche tecniche di phishing rendendole più credibili, ma anche per generare contenuti manipolati, come i deepfake, usati a scopo di estorsione. 

Non sono più solo celebrità e politici a finire nel mirino dei deepfake ma, sempre più spesso, i truffatori digitali usano questa tecnologia per impersonare dirigenti aziendali o comuni cittadini, rendendo le frodi ancora più credibili e difficili da smascherare. Esiste, ad esempio, una tecnica che consente di sovrapporre in diretta il volto di un’altra persona al proprio durante una videochiamata. Una manipolazione tanto sofisticata quanto accessibile, che non richiede più ore di registrazioni o archivi audio. Bastano pochi secondi di un video rubato online o una clip vocale per clonare volto e voce con sorprendente precisione.

Un caso emblematico si è verificato a Hong Kong nel febbraio del 2024. Una multinazionale ha perso circa 25,6 milioni di dollari statunitensi dopo che i dipendenti della sua filiale di Hong Kong sono stati ingannati da un deepfake che riproduceva il direttore finanziario dell’azienda mentre ordinava trasferimenti di denaro in videoconferenza. 

Tutte le persone presenti in videochiamata, tranne la vittima, erano in realtà una falsa rappresentazione delle persone reali. Chi ha ordito lo scam ha applicato, dunque, una tecnologia per trasformare video e filmati disponibili pubblicamente in una versione abbastanza convincente da portare il dipendente ingannato a eseguire il trasferimento di denaro. 

Altre modalità di truffa che utilizzano l’IA generativa riguardano, invece, la falsificazione della voce. Ad esempio, chi esegue lo scam potrebbe prendere di mira una vittima fingendosi un parente. Anche i numeri di telefono possono essere falsificati per imitare quelli delle persone note alle vittime. Un avvocato di Philadelphia, ad esempio, ha ricevuto una telefonata da quello che credeva essere suo figlio che gli diceva angosciato per aver distrutto la sua auto e di aver bisogno di 9mila dollari per pagare la cauzione. Una breve telefonata con il presunto avvocato d’ufficio, che gli chiedeva di pagare in Bitcoin, l’aveva insospettito e una successiva conversazione con suo figlio l’aveva salvato da una cosiddetta “truffa dell’emergenza familiare”. 

Oggi, infatti, un’industria in rapida crescita offre numerosi servizi accessibili con una spesa minima in grado di generare cloni vocali di qualità. 

La giornalista Amanda Hoover, nel maggio scorso, ha pubblicato un lungo approfondimento su Business Insider in cui racconta come ha creato un deepfake della sua voce e “truffato” la sua banca (senza commettere alcun reato) che non ha riconosciuto il fatto che la sua voce fosse, in realtà, generata artificialmente. Uno studio del 2023 ha rivelato che il campione di persone coinvolto nella ricerca non è stato sempre in grado di riconoscere le voci deepfake. Man mano che gli algoritmi di sintesi vocale migliorano e diventano più realistici, riconoscerli diventerà sempre più difficile.   

Individuare i falsi: red flag e strumenti utili

Di fronte all’aumento delle frodi e alle crescenti minacce alla sicurezza dei dati, le autorità di regolamentazione internazionali si sono viste costrette a intervenire con misure di protezione più incisive. Un esempio significativo è il Regolamento generale sulla protezione dei dati (Gdpr), applicabile nell’Unione europea dal 2018. Si tratta di una normativa che ha introdotto standard stringenti in materia di tutela dei dati personali, rafforzato i diritti alla privacy degli utenti e previsto sanzioni pesanti per chi non si adegua. Un passaggio cruciale nella lotta contro l’abuso delle informazioni personali nei meccanismi di frode digitale.

Anche oltre i confini europei, la consapevolezza della necessità di proteggere meglio i dati personali è sempre più alta. Normative come il “Payment card industry data security standard” (Pci Dss) e il “California consumer privacy act” (Ccpa) ne sono la prova. Sono segnali chiari di un consenso globale sempre più ampio verso l’adozione di leggi più severe in materia di sicurezza digitale. Questi strumenti legislativi non si limitano a difendere i consumatori, ma spingono le aziende a rafforzare le proprie difese informatiche, contribuendo a ridurre il rischio di frodi sempre più sofisticate. 

Nonostante le leggi, le truffe non si fermano e trovano modi sempre nuovi per evolvere. Tuttavia gli esperti consigliano di tenere a mente una serie di pratiche che possono aiutare a riconoscere i contenuti creati con l’intelligenza artificiale a scopo di truffa. 

Ad esempio, gli esperti di sicurezza informatica Matthew Wright e Christopher Schwartz, dell’Università di Rochester, negli Stati Uniti, raccomandano di fare attenzione alle chiamate inaspettate, anche se provenienti da persone che si conoscono bene. Questo, secondo gli studiosi, non significa programmare ogni chiamata, ma quando ciò succede è buona pratica inviare un messaggio alla persona con cui si ha appuntamento per confermare che sarà davvero lei a chiamare. Inoltre, consigliano di non fidarsi ciecamente del numero che compare sul display, anche quello può essere manipolato. Se si riceve una telefonata da qualcuno che sostiene di lavorare per la propria banca, per esempio, la cosa più sicura da fare è riagganciare e richiamare direttamente per verificare che si tratti davvero di un operatore ufficiale. Infine, per evitare di finire vittima di truffa, Wright e Schwartz consigliano di fare attenzione a condividere online informazioni personali come la data di nascita, il numero di telefono, il secondo nome o i nomi dei propri animali domestici poiché potrebbero essere utilizzati dagli scammer, insieme alla clonazione vocale, per impersonare altre persone.  

Secondo un articolo pubblicato da CBS News, un altro strumento utile per non cadere vittima delle truffe online che usano l’IA è stabilire una “parola di sicurezza” da usare in famiglia, accompagnata da un protocollo chiaro per confermare l’identità di un familiare o di una persona cara. Un buon esempio per utilizzare questo strumento è quello di chiedere sempre la parola di sicurezza prima di fare qualsiasi trasferimento di denaro. 

Anche i deepfake video possono essere davvero realistici, ma non sono mai perfetti. Ci sono dei segni che possono essere rivelatori e alcune domande da porsi per capire se si tratta di realtà o finzione. Ad esempio, nei filmati è importante osservare i movimenti del volto: la persona batte le palpebre in modo naturale? Le espressioni facciali e il movimento delle labbra corrispondono perfettamente all’audio?

Ma è fondamentale anche ascoltare eventuali intonazioni innaturali o strani artefatti audio nella voce, un leggero tono robotico o pause insolite potrebbero indicare una voce sintetizzata. Ma soprattutto, ciò che è importante fare quando ci si trova di fronte a richieste insolite è valutare il contesto: il mio capo mi chiederebbe mai di fare una transazione di denaro tanto elevata in una videocall senza preavviso? Se la risposta è “no”, ma anche solo “forse”, allora prima di procedere è il caso verificare l’identità di quella persona attraverso altri canali.

In un mondo sempre più connesso e digitale, le truffe basate sull’intelligenza artificiale rappresentano una minaccia concreta e in rapido sviluppo. Proteggersi significa non solo adottare misure tecnologiche e normative, ma anche mantenere alta la guardia personale, sviluppando consapevolezza e buone pratiche nella comunicazione quotidiana.

Potrebbero interessarti
Segnala su Whatsapp