Logo

L’estremo realismo di Sora 2 è diventato uno strumento di odio e derisione

La nuova app di OpenAI è piena di video generati con l’intelligenza artificiale che lanciano messaggi sessisti, grassofobici e abilisti

14 ottobre 2025
Condividi

A inizio ottobre, OpenAI ha lanciato la seconda generazione di Sora, un generatore di video basato sull’intelligenza artificiale collegato all’omonima nuova app. Al momento in cui scriviamo, l’app Sora è disponibile solo per iOS negli Stati Uniti e in Canada, ma i contenuti generati dagli utenti si possono trovare condivisi già su piattaforme social, come X. 

Sin dal suo lancio, uno degli usi principali che gli iscritti all’app Sora sembrano averne fatto è la generazione di AI slop — “sbobba artificiale” in italiano —, ovvero contenuti prodotti in massa tramite intelligenza artificiale, privi di reale valore e creati unicamente per attirare click e generare traffico online.

Grazie a Sora, ad esempio, ha preso il via il trend di realizzare deepfake di personaggi famosi deceduti, come Stephen Hawking, Michael Jackson o Robin Williams, e far compiere loro gesti o dire frasi che mai avrebbero compiuto o detto in vita, provocando tra l’altro sgomento nei loro parenti. Ma non solo, l’app di OpenAI è diventata anche uno strumento per discriminare alcune fasce della popolazione e diffondere immagini sessiste, abiliste, grassofobiche, razziste ed estremiste. 

I deepfake dei personaggi famosi defunti 

La funzione principale di Sora 2 è la creazione di video generati dall’intelligenza artificiale che riproducono le caratteristiche dell’utente, una modalità chiamata “cameo”. Come spiega OpenAI, l’app realizza il deepfake «dopo una breve registrazione video e audio una tantum, necessaria per verificare l’identità e catturare l’immagine dell’utente». L’azienda tech di San Francisco precisa inoltre che il controllo del cameo resta nelle mani dell’utente, che può decidere chi è autorizzato a utilizzarlo e revocare l’accesso o eliminare in qualsiasi momento i video che lo includono.

Una funzione che, tuttavia, comporta inevitabilmente dei rischi per l’immagine e la privacy delle persone coinvolte nei deepfake. È anche per questo motivo che OpenAI ha dichiarato di «stare ampliando i team di moderatori umani per esaminare rapidamente eventuali casi di bullismo», con particolare attenzione agli utenti più giovani.

Inoltre, OpenAI ha imposto dei limiti sui soggetti raffigurabili: i personaggi pubblici, infatti, non potranno essere generati su Sora, a meno che non abbiano già un cameo e dato il consenso al suo utilizzo. Non si potranno nemmeno generare contenuti vietati ai minori o estremi, stando a OpenAI.

Ma c’è un dettaglio: la protezione sui deepfake dei personaggi famosi non include coloro che sono deceduti, consentendo così a chiunque di realizzare video falsi che riportano in vita personaggi pubblici, tra cui attivisti, celebrità e leader politici. «Dal punto di vista commerciale, se si creano contenuti memabili (ovvero che possono diventare un meme, ndr) di personaggi famosi facilmente riconoscibili, si otterranno più click», ha spiegato al Washington Post Henry Ajder, esperto di intelligenza artificiale che studia i deepfake e ha coniato il termine “resurrezione sintetica” per descrivere la creazione di “copie digitali” di persone defunte . «Nel caso di persone decedute, questo apre un enorme interrogativo sulla proprietà dell’immagine e cambia radicalmente il contratto sociale su ciò che significa essere se stessi online», ha continuato Ajder

Ed è così che su Sora sono stati creati video – poi diffusi su varie piattaforme social – di celebrità defunte in situazioni bizzarre. Una delle figure più colpite è Stephen Hawking, il celebre fisico teorico affetto da sclerosi laterale amiotrofica (SLA), una malattia neuromuscolare degenerativa e incurabile che lo costrinse a trascorrere gran parte della vita su una sedia a rotelle, fino alla sua morte nel 2018. Alcuni utenti si sono divertiti a fargli fare acrobazie con la sedia a rotelle su una rampa da skate, gareggiare in Formula 1, prendere pugni in faccia da pugili e wrestler sul ring, o battersi contro un robot telecomandato da Albert Einstein. Insomma, deepfake di Hawking che pratica sport o attività che, a causa della sua malattia, non avrebbe mai potuto fare. Una forma di abilismo, ovvero la discriminazione nei confronti delle persone con disabilità, velato da uno strato di ironia. Si tratta di una tecnica spesso usata online che consente di deridere e prendere di mira un determinato soggetto nascondendosi dietro lo schermo della battuta.

Si trovano anche video di Michael Jackson che fugge da un fast food di KFC dopo aver rubato del pollo fritto cantando a cappella una canzone dedicata proprio alla catena di ristorazione, che sta dietro ai fornelli di un McDonald’s o mentre litiga con Adolf Hitler in un talk show.

Con Sora, poi, è stato completamente riscritto, ribaltandone il significato, il famoso discorso “I have a dream” di Martin Luther King, pronunciato nel 1963 a Washington al termine di una manifestazione per i diritti civili. La reputazione dell’attivista è stata presa di mira anche con deepfake che lo ritraggono mentre ruba la spesa al supermercato

Allo stesso modo, anche all’attivista Malcolm X sono state messe in bocca analisi sulla società contemporanea e discorsi che in realtà non ha mai pronunciato. La figlia Ilyasah Shabazz, sentita dal Washington Post, ha commentato questo trend affermando che «è profondamente irrispettoso e doloroso vedere l’immagine di mio padre utilizzata in modo così sprezzante e insensibile, quando lui ha dedicato la sua vita alla verità». Shabazz si è poi chiesta perché gli sviluppatori di Sora non agissero «con la stessa moralità, coscienza e cura che vorrebbero per le loro famiglie».

I deepfake creati con Sora hanno suscitato indignazione e disgusto anche a Zelda Williams, la figlia dell’attore Robin Williams, che su Instagram aveva chiesto alle persone di smettere di inviarle video generati dall’intelligenza artificiale di suo padre.

«Vedere l’eredità di persone reali ridotta a qualcosa che “assomiglia vagamente a loro e suona un po’ come loro”, solo per permettere ad altri di sfornare orribili video TikTok in cui li fanno muovere come marionette, è esasperante», ha scritto Williams su una storia di Instagram.

Dopo le polemiche, riporta sempre il Washington Post, OpenAI ha dichiarato che avrebbe iniziato a consentire ai rappresentanti di personaggi pubblici recentemente scomparsi (termine non meglio definito dalla stessa azienda) di richiedere che le loro immagini fossero bloccate dai video di Sora. «Riteniamo che i personaggi pubblici e le loro famiglie debbano avere il controllo sull’uso delle loro immagini», ha affermato una portavoce dell’azienda.

A livello legale, negli Stati Uniti non sembra ci sia ampio margine di movimento. Stando a Reid Kress Weisbord, professore alla Rutgers Law School esperto di testamenti e successioni, la legge sulla diffamazione riguarda i danni alla reputazione delle persone viventi e, in genere, il diritto di rivendicarla si estingue con la persona diffamata.

Il Washington Post ipotizza che le famiglie potrebbero intentare un’azione legale per il diritto post mortem alla pubblicità della persona, che impedisce lo sfruttamento commerciale del nome o dell’immagine di qualcuno senza il suo consenso. 

Ma OpenAI, spiega ancora il quotidiano statunitense, potrebbe sostenere che i contenuti siano un “uso trasformativo”, un concetto giuridico volto a proteggere le parodie, le recensioni e altre forme di espressione.

Contenuti misogini, grassofobici e antisemiti

Un altro dei trend in voga su Sora è quello delle “Olimpiadi delle donne”, o “Olimpiadi delle faccende domestiche”, che prende in giro le donne e i ruoli di genere. Il modello di generazione video di OpenAI è stato utilizzato da diversi utenti per realizzare video in cui atlete gareggiano nelle faccende domestiche, e si sfidano in competizioni che consistono nel lavare i piatti, rifare il letto, piegare i vestiti, passare l’aspirapolvere, pulire i bagni o addirittura prendere una birra fresca dal frigo e portarla al marito seduto comodo in poltrona. Ci sono poi anche le gare di chi urla più forte contro un manichino uomo, o di chi riesce a stare più a lungo in silenzio

Tutte le “atlete” indossano divise di atletica di nazionalità varie, Italia inclusa, e si sfidano all’interno di uno stadio di atletica. dando l’impressione che siano delle vere e proprie discipline sportive riconosciute.

Immagini sessiste che non fanno altro che alimentare stereotipi di genere secondo cui le donne devono occuparsi delle pulizie di casa e dell’economia domestica, e prendersi cura esclusivamente dei bisogni del marito.

Accanto alle “Olimpiadi delle faccende domestiche”, su Sora sono nate anche le “Olimpiadi grasse”, un trend grassofobico che deride le persone grasse mentre fanno sport. Sui social si incontrano così video IA di queste persone che si lanciano in discesa con gli sci e cadono malamente, fanno fatica a correre senza inciampare, non riescono a tuffarsi dal trampolino di una piscina o rompono l’asta del salto in alto. Video che hanno il solo obiettivo di perpetuare il cosiddetto weight stigma e giudicare, deridere e trollare le persone grasse, generalmente stigmatizzate in ambito sportivo a causa della percentuale di grasso dei loro corpi.

Anche le persone di religione ebraica sono fra i soggetti presi di mira nei video generati con la nuova app di OpenAI. In modo simili alle “Olimpiadi” sopra menzionate, sono stati realizzati video IA di “campionati di conteggio dei contanti” o di “zigrinatura delle monete”, dove a vincere, tra i partecipanti di nazionalità e culture diverse, è un ebreo. Contenuti che incarnano lo stereotipo antisemita delle persone ebree viste come usurai e strozzini. 

Soltanto su X contenuti del genere hanno ottenuto milioni di visualizzazioni.

Sora non è l’unico generatore di video IA che è stato utilizzato per diffondere contenuti discriminatori. Recentemente, con l’intelligenza artificiale di Google per creare video, Veo 3, sono stati realizzati filmati stereotipati, condivisi poi specie su TkTok, che prendono in giro la città di Napoli e i suoi abitanti, facendo leva su aspetti che riguardano disagio, criminalità e povertà. 

Per mitigare il rischio che gli spettatori vengano ingannati da filmati falsi di persone reali, OpenAI inserisce un watermark mobile in ogni video generato nella sua applicazione. Tuttavia, come fa notare 404 media, i vari watermark sono facili da rimuovere e in Rete si trovano decine di siti web che aiutano gli utenti a farlo in pochi minuti.

A prescindere dalla resistenza del watermark, ciò non toglie che i video generati artificialmente analizzati finora, anche se facilmente riconoscibili come falsi, diffondono e fomentano stereotipi di genere e culturali e discorsi d’odio. Una realtà che cozza con quanto sperato e auguratosi da OpenAI, che nell’annuncio del lancio di Sora 2 si era detta «ottimista sul fatto che questa sarà una piattaforma più sana per l’intrattenimento e la creatività rispetto a quelle disponibili al momento».

Potrebbero interessarti
Segnala su Whatsapp