Logo

Il bug di Canva che sostituiva “Palestina” con “Ucraina” non è un incidente isolato

Non è la prima volta che un modello IA “censura” la Palestina e i palestinesi

30 aprile 2026
Condividi

Il 26 aprile 2026, a distanza di un mese dal lancio della nuova funzione IA “Magic Layers” di Canva, piattaforma di progettazione grafica australiana, un utente su X ha scritto indignato che la funzione avrebbe modificato un poster dell’artista francese Agathe Singer, volto a sostenere la causa palestinese con un design che riportava la scritta “A cat for Palestine” (in italiano, “un gatto per la Palestina”). La funzione ha sostituito questa scritta con “A cat for Ukraine”, senza che l’utente l’avesse richiesto. Il post è diventato virale, con più di 3 milioni di visualizzazioni.

Sotto al post, l’utente ha spiegato di aver caricato il poster e di averlo voluto modificare per aggiungere il nome dell’autrice, sottolineando di aver cliccato sul pulsante “Magic Layers” per caso. È qui che la parola “Palestine”, già presente nel poster, è stata cambiata in “Ukraine”. Il problema, sostiene l’utente, si era manifestato solamente con i poster in cui era presente la parola “Palestina”, ma non in quelli con la parola “Gaza”, che l’IA di Canva non sostituiva. Nelle ore seguenti, altri utenti hanno replicato quanto descritto nel post, ottenendo lo stesso effetto. Un fatto che ha scatenato un’ondata di indignazione sui social, con accuse di censura alla piattaforma di grafica e al suo modello IA. 

Già due anni fa Canva era stata accusata da vari utenti di aver rimosso contenuti pro-Palestina e, secondo un articolo di ottobre 2023 di The Daily Wire, l’azienda aveva rimosso un template creato dal gruppo di studenti universitari statunitense “Students for Justice in Palestine” che si riferiva all’attacco di Hamas contro Israele del 7 ottobre con l’espressione “a day of resistance” (in italiano, “un giorno di resistenza”). Canva aveva spiegato alla testata statunitense che le immagini facevano «esplicito riferimento a un atto di violenza avvenuto di recente, il che è in contrasto con le nostre linee guida ed è stato quindi rimosso». All’epoca, gli utenti avevano poi lanciato una petizione sulla piattaforma Change.org accusando Canva di non essersi esposta sulla guerra in Palestina, mentre lo aveva fatto per la guerra in Ucraina.  

Le scuse di Canva  

“Magic Layers” è una funzione IA di Canva basata sul modello IA “Canva Design Model”, lanciato a ottobre 2025. Come si legge nel comunicato stampa dell’azienda, pubblicato l’11 marzo 2026, lo scopo di “Magic Layers” è quello di trasformare “immagini statiche” in «progetti multistrato completamente modificabili all’interno di Canva, offrendo ai creator la libertà di perfezionare, adattare e personalizzare appieno le immagini generate con l’intelligenza artificiale». 

In altre parole, la funzione analizza l’immagine e ne riconosce le componenti, ripresentandoli in vari “livelli” modificabili. Quindi, non dovrebbe apportare modifiche visibili ai progetti degli utenti, né sostituire parole. 

In seguito all’indignazione scatenatasi sui social, la portavoce dell’azienda Louisa Green ha dichiarato alla testata di giornalismo tecnologico The Verge che dopo essersi resi conto del problema, «siamo intervenuti rapidamente per indagare e risolverlo», aggiungendo  che «prendiamo molto sul serio segnalazioni come questa e stiamo mettendo in atto ulteriori controlli per evitare che ciò si ripeta in futuro. Ci scusiamo per l’eventuale disagio causato».  

L’azienda sembra effettivamente essersi mossa subito in questo senso. Jess Weatherbed, autrice dell’articolo di The Verge pubblicato il 27 aprile, puntualizza di aver fatto esperimenti con contenuti con la parola “Palestina” sottoponendoli alla funzione “Magic Layers”, e di non aver riscontrato sostituzioni di alcun tipo. A Facta abbiamo fatto gli stessi esperimenti in data 29 aprile, senza riscontrare problemi.

La “censura” della Palestina nei modelli IA 

Il bug nel sistema, quindi, sembra essere stato risolto. Ma il punto è un altro: non è la prima volta che i modelli IA producono risposte controverse sulla Palestina e i palestinesi.

All’inizio degli attacchi di Israele su Gaza di ottobre 2023, quando alcuni attivisti avevano chiesto a ChatGPT se i palestinesi avessero il diritto di esistere, il chatbot aveva risposto che «la questione se i palestinesi meritino di essere liberi è una questione di prospettiva ed è profondamente radicata in un conflitto politico complesso e controverso». Lo stesso esperimento fatto nell’aprile 2026 da Facta ha ottenuto una risposta molto più neutrale, in cui si legge che «Sì. I palestinesi, come qualsiasi altro popolo, hanno il diritto di esistere, di vivere in sicurezza e di esercitare il diritto all’autodeterminazione», e che «ciò vale allo stesso modo sia per i palestinesi che per gli israeliani».  

In un altro esperimento condotto nel 2025 dai giornalisti della testata The New Arab, che confrontava le risposte del chatbot statunitense ChatGPT e di quello cinese DeepSeek, era emerso che il primo aveva mantenuto una posizione più o meno neutrale riguardo alla questione, classificando Israele come “potenza occupante” ai sensi di alcune leggi internazionali ma tendendo a ribadire «il diritto di Israele all’autodifesa», e inquadrando la cronologia della guerra a partire dal 7 ottobre 2023. DeepSeek, al contrario, aveva parlato della Nakba del 1948 e sottolineato che, «secondo alcuni ricercatori», Israele è uno “Stato coloniale”.

Anche sulle piattaforme social la moderazione e la traduzione automatiche sembrano avere un pregiudizio anti-palestinese. Come avevamo già raccontato in un approfondimento su Facta, l’ONG Human Rights Watch aveva rivelato nel 2023 che i profili Instagram di alcuni utenti palestinesi che avevano utilizzato la parola araba “alhamdulillah” (“sia lodato Dio”) e l’emoji della bandiera palestinese erano stati censurati dalla moderazione automatica della piattaforma social con la dicitura “terrorista”. Meta aveva affermato che la colpa era stata di un bug. Ma proprio sulle piattaforme di Meta, sempre stando al report di Human Rights Watch, gli utenti palestinesi erano stati più volte attivamente discriminati, i loro contenuti rimossi anche quando questi documentavano crimini di guerra, e la loro visibilità ridotta in una pratica nota come “shadow-banning”.

Il caso di Canva, quindi, sembra essere parte di una tendenza, più che un incidente isolato; una tendenza che sottolinea quanto nell’era dell’informazione online le piattaforme che utilizziamo ci possono rendere parte di un sistema ideologico ben preciso, che condiziona i contenuti che vediamo e di conseguenza la nostra visione della realtà. 

Potrebbero interessarti
Segnala su Whatsapp