Logo

Le proteste di Los Angeles ci insegnano che i chatbot IA non sono strumenti di fact-checking

Questi programmi commettono errori e possono essere manipolati, finendo per alimentare disinformazione

13 giugno 2025
Condividi

Da diversi giorni sono in corso a Los Angeles proteste e violenti scontri per i numerosi raid contro le persone migranti da parte degli agenti dell’Immigration and Customs Enforcement (ICE) nell’ambito della repressione dell’immigrazione irregolare portata avanti dall’amministrazione di Donald Trump. 

La sindaca della città californiana, Karen Bass, ha imposto il coprifuoco nelle ore notturne dopo diverse notti di disordini e vandalismi (decine di persone sono state arrestate per averlo violato) e ha chiesto, insieme ad altri sindaci dell’area di Los Angeles, di fermare i raid che «creano paura e tensioni sociali». 

Nel frattempo il presidente statunitense ha definito i partecipanti alle proteste «animali» e «nemici stranieri» e ha risposto schierando a Los Angeles truppe della Guardia Nazionale e centinaia di Marines. Una decisione presa contro la volontà di Gavin Newsom, il governatore della California, che ha presentato un ricorso in tribunale, il quale gli ha dato ragione ritenendo illegale l’azione di Trump (l’amministrazione statunitense ha presentato ricorso). Manifestazioni contro l’amministrazione di Trump si sono verificate successivamente anche in altre città del Paese, come New York, Boston, Atlanta, Chicago, Austin, Dallas, San Francisco e Philadelphia. 

In questo contesto di scontro politico e attenzione mediatica non è mancata la disinformazione virale, tra video fuorvianti, teorie del complotto e affermazioni infondate. Rispetto tuttavia ad altre volte in cui grandi momenti di crisi sono stati presi di mira da notizie false e propaganda di parte, in questo caso un ruolo importante nell’alimentare tensioni e confusioni è stato giocato anche dai nuovi chatbot di intelligenza artificiale. In particolare modo per il loro utilizzo da parte di svariati utenti social come strumenti di fact-checking.

“È una foto vecchia. Anzi no”

Lunedì 9 giugno, il quotidiano locale San Francisco Chronicle pubblica una serie di immagini in esclusiva che mostrano le truppe della guardia nazionale statunitense inviate da Trump a Los Angeles dormire ammassate sul pavimento all’interno di un edificio. L’articolo viene rilanciato su X lo stesso giorno dal governatore californiano Newsom per criticare Donald Trump. «Avete mandato le vostre truppe qui senza carburante, cibo, acqua e un posto dove dormire. Eccoli qui: costretti a dormire sul pavimento, ammucchiati l’uno sull’altro», scrive il governatore californiano commentando gli scatti.

Per verificare l’autenticità delle foto diffuse dal San Francisco Chronicle e rilanciate da Gavin Newsom diversi utenti hanno utilizzato i chatbot di OpenIA e xAI. Invece di fare chiarezza, i risultati ottenuti hanno contribuito a diffondere disinformazione virale.

Secondo un’analisi di ChatGPT, pubblicata da Melissa O’Connor, che nella propria bio di X si definisce una persona che pratica giornalismo partecipativo esperta di analisi Osint (ovvero la disciplina della Open Source Intelligence, che si occupa di geolocalizzare video e filmati di guerra tramite immagini satellitari e mappe online), una delle due foto in questione non avrebbe avuto alcun legame con Los Angeles poiché sarebbe stata scattata ad agosto 2021 all’aeroporto di Kabul, durante il ritiro delle truppe americane dall’Afghanistan. Per questo, quindi, il governatore della California avrebbe contribuito a diffondere una notizia falsa per attaccare il presidente Trump. Il post di O’Connor ha ottenuto oltre 200mila visualizzazioni e le sue conclusioni sono state rilanciate anche su altri social media.

L’analisi di ChatGPT è però sbagliata. Entrambe le foto pubblicate da San Francisco Chronicle sono infatti autentiche. L’emittente statunitense CBS, utilizzando immagini pubblicate dal Comando Settentrionale degli Stati Uniti e altri video pubblicati sui social media, ha verificato infatti in modo indipendente che le immagini sono state scattate a giugno 2025 nell’area della banchina di carico del Robert Young Federal Building, a Los Angeles. 

L'analisi effettuata dalla CBS che conferma l'autenticità delle immagini

Inoltre, la veridicità delle foto è stata confermata sempre alla CBS da un portavoce del Comando Settentrionale degli Stati Uniti: «I soldati che vedete nella foto si stavano riposando, dato che non erano in missione e, a causa della situazione di sicurezza instabile, si è ritenuto troppo pericoloso per loro raggiungere sistemazioni migliori. I soldati hanno facile accesso a cibo e acqua, se necessario».

Anche Grok è giunto a una falsa conclusione simile a quella di ChatGPT. Interpellato da alcuni utenti su X sulle due immagini, il chatbot di Elon Musk ha risposto in più occasioni che le foto dei soldati della Guardia Nazionale che dormono per terra «risalgono probabilmente al 2021, probabilmente al Campidoglio degli Stati Uniti, non a Los Angeles nel 2025. I notiziari del 2021, come KRON4, mostrano scene simili. L’articolo del Chronicle non trova riscontri da altre fonti del 2025 e i metadati suggeriscono un’origine del 2021. Alcuni sostengono l’Afghanistan, ma le immagini del Campidoglio sono più appropriate. Sembra probabile un’attribuzione errata».

Grok però non ha dato una risposta (sbagliata) univoca. In altri momenti infatti la sua analisi ha avuto esiti differenti, contribuendo ad alimentare confusione. A un altro utente che chiedeva se le foto fossero reali, ha risposto che lo erano «come confermato dal San Francisco Chronicle e da altri resoconti». 

Come ha raccontato su Wired David Gilbert, giornalista esperto di disinformazione ed estremismo online, Grok ha alimentato disinformazione in almeno un altro caso. «Mike Crispi, presidente della divisione del New Jersey del gruppo filo-Trump “America first republicans”, ha postato su X una foto che ritrae diverse pile di mattoni disposte in modo ordinato sul ciglio di una strada, aggiungendo il commento: “Il segno internazionale che a breve ci sarà una protesta di sinistra molto reale, organica e assolutamente pianificata in anticipo”. La foto è stata poi ripostata dall’attore James Woods, arrivando così a un pubblico molto più ampio. “Queste ‘proteste’ non sono per niente organizzate…”, si legge nella didascalia del post, che ha raccolto 4 milioni di visualizzazioni», ha ricostruito il giornalista. 

Questa tipologia di post si inserisce nel filone delle teorie del complotto diffuse in questi giorni in particolare da utenti e influencer statunitensi di destra che affermano senza prove che le proteste non sarebbero state spontanee ma organizzate da personalità potenti e ricche come George Soros (l’imprenditore da tempo al centro di svariate cospirazioni in particolare da parte dell’estrema destra in più Paesi) e la prova sarebbe per l’appunto la presenza di pile di mattoni impacchettate e pronte per essere lanciate. 

Le foto di pile di mattoni, tuttavia, non c’entrano nulla con le proteste di Los Angeles. Il sito di fact-checking LeadStories ha verificato che la foto è stata scattata in realtà in un sobborgo del New Jersey. Ma quando a Grok è stato chiesto di chiarirne l’origine, continua Gilbert, l’AI di X ha scritto sbagliando che «l’immagine è probabilmente una foto reale di Paramount, Los Angeles, scattata il 7 giugno 2025, vicino all’Home depot su Alondra boulevard durante le proteste contro i raid dell’Ice».

L’inaffidabilità nella verifica delle notizie da parte dei chatbot IA

Non è la prima volta che i chatbot di intelligenza artificiale finiscono per diffondere notizie infondate e non verificate. Mentre la disinformazione dilagava sui social media durante il conflitto di aprile 2025 tra India e Pakistan, gli utenti dei social media si sono rivolti a Grok su X per verificare le notizie che continuavano ad arrivare, solo per imbattersi in un numero sempre maggiore di falsità, scrive France 24.

Una ricerca di NewsGuard pubblicata a maggio 2025 ha rivelato che ad aprile gli 11 chatbot leader nel settore hanno ripetuto collettivamente affermazioni false nel 28 per cento dei casi analizzati, non hanno saputo rispondere nel merito nel 13 per cento dei casi e hanno dato una risposta corretta nel 58 per cento dei casi. «Il tasso di fallimento del 41 per cento nelle risposte è identico al tasso di fallimento di marzo 2025, a indicare che non si sono registrati progressi complessivi nella riduzione delle informazioni false», conclude il progetto di monitoraggio dei media che si occupa di analizzare le dinamiche della disinformazione a livello internazionale. 

Un recente studio realizzato dal Tow Center for Digital Journalism della Columbia University ha scoperto inoltre che in genere i chatbot quando «non sono stati in grado di rispondere a domande a cui non erano in grado di rispondere in modo accurato» hanno prodotto «risposte errate o speculative». Una dinamica riscontrata anche da un’analisi della BBC.

I chatbot basati sull’intelligenza artificiale possono apparire come entità onniscienti, ma non lo sono, spiega un articolo di DW perché commettono errori, fraintendono e possono essere manipolati, come avevamo ricostruito in questo approfondimento. Per tutti questi questi motivi Felix Simon, ricercatore in intelligenza artificiale e notizie digitali, ha dichiarato all’emittente pubblica tedesca che i «sistemi di intelligenza artificiale come Grok, Meta AI o ChatGPT non dovrebbero essere considerati strumenti di fact-checking. Sebbene possano essere utilizzati a tal fine con un certo successo, non è chiaro quanto siano efficaci e costanti in questo compito, soprattutto nei casi limite».

Potrebbero interessarti
Segnala su Whatsapp