Logo

I deepfake pornografici riflettono il sessismo della nostra società

In un vuoto legislativo sulla questione, crescono i casi di donne in politica prese di mira da questo tipo di contenuti

8 luglio 2025
Condividi

È passato un anno dall’inizio del processo che vede imputati due uomini italiani per aver diffuso online alcuni falsi video pornografici realizzati con l’intelligenza artificiale in cui appariva il volto della presidente del Consiglio Giorgia Meloni. I video sarebbero stati pubblicati nel 2020 su siti pornografici statunitensi dove sono stati visti milioni di volte, spingendo Meloni a denunciare i responsabili per diffamazione e a chiedere un risarcimento di 100mila euro. 

Non è la prima volta che immagini pornografiche generate da intelligenza artificiale vengono diffuse online, infangando la reputazione delle donne che ricoprono un ruolo pubblico. L’anno scorso, nel Regno Unito, Channel 4 aveva scoperto che circa una dozzina di donne della politica britannica erano state sessualizzate in svariati contenuti deepfake convisi online. Negli Stati Uniti, invece, l’American Sunlight Project ha rilevato 35.239 casi di contenuti di questo tipo che ritraevano 26 membri del Congresso statunitense: 25 donne e 1 uomo. Le deputate, secondo il report, erano 70 volte più propense a essere raffigurate in questi contenuti rispetto ai loro colleghi maschi. Casi simili si sono verificati anche in Australia, in India e in Pakistan.

La disinformazione di genere 

Le donne in politica sono oggetto di un’enorme quantità di abusi, molestie e diffamazioni di genere online attraverso le piattaforme dei social media. E sono più colpite rispetto ai loro colleghi uomini, come dimostrato da svariati report e studi in giro per il mondo. Negli Stati Uniti, in occasione delle elezioni del Congresso del 2020, un’analisi dell’Institute for Strategic Dialogue ha riscontrato che su Facebook le candidate democratiche avevano ricevuto dieci volte più commenti offensivi rispetto ai loro colleghi. In Zimbabwe, in occasione della campagna elettorale per le elezioni del 2018, uno studio dell’International Foundation for Electoral Systems (IFES) aveva affermato che le donne erano state vittime del quasi doppio dei contenuti psicologicamente e socialmente violenti rispetto agli uomini. 

Questo genere di narrazioni è molto simile tra i vari Paesi e ha lo scopo di denigrare e sminuire le donne che fanno politica. A livello internazionale, l’organizzazione #ShePersisted segue queste tendenze dal 2022 e ha identificato le narrazioni di genere comuni rivolte alle donne in politica: rispetto agli uomini, infatti, le donne in politica sono soggette a forme diverse di molestie e abusi. Se gli attacchi rivolti ai politici uomini riguardano principalmente i loro doveri professionali, le molestie online rivolte alle donne politiche tendono a concentrarsi maggiormente sul loro aspetto fisico e sulla loro sessualità. Nel 2024 la parlamentare australiana Georgie Purcell aveva così commentato la modifica di una sua foto che aveva ingrandito il suo seno e rimosso una parte del suo vestito: «Non riesco a immaginare che questo possa accadere a un parlamentare maschio».

Un’analisi del 2019 condotta sempre da IFES sulla violenza online contro le donne in politica in Ucraina aveva concluso che «le donne della sfera pubblica vengono regolarmente accusate di avere comportamenti immorali o poco femminili o di avere capacità intellettuali limitate», delegittimando la loro capacità di ricoprire cariche politiche. Nel caso dello studio ucraino si riportava che i comportamenti femminili erano usati come insulto contro gli uomini in politica: circolavano infatti immagini photoshoppate in cui i volti degli uomini erano posti sui corpi delle donne per ridicolizzarli, reiterando l’idea della donna come soggetto inadatto alla politica. 

L’Italia non è esclusa

Gli esempi sulla delegittimazione online delle donne in politica sono molteplici anche in Italia. Basti pensare alle campagne di disinformazione online contro Maria Elena Boschi, deputata di Italia Viva. Nel 2015, ad esempio, si era diffusa online una sua foto mentre leggeva al contrario una copia de L’Unità, storico quotidiano italiano. Si trattava però di un’immagine ritoccata (nella foto originale, il giornale era dritto) che metteva in risalto il suo aspetto estetico per puntare sullo stereotipo sessista che associa bellezza e stupidità. Negli stessi anni era circolata un’altra foto che la mostrava in perizoma mentre firmava per l’incarico di ministra durante il giuramento del governo Renzi nel febbraio 2014. Anche in questo caso si trattava di un’immagine modificata.

Simili contenuti che utilizzano stereotipi sessisti e notizie false sono stati rilevati anche nel caso della segretaria del Partito Democratico Elly Schlein, con commenti come: «Da giovane era graziosa, ma poi è diventata comunista». Questo tipo di messaggi è rinforzato all’interno dello stesso mondo politico: nel 2016, era diventato caso nazionale l’insulto che il segretario della Lega Matteo Salvini aveva rivolto all’allora presidente della Camera Laura Boldrini, paragonandola, durante un comizio, a una bambola gonfiabile.

Secondo Lucy Purdon, fondatrice dell’organizzazione no profit Courage Everywhere ed esperta di giustizia di genere e tecnologia, questo tipo di rappresentazione delle donne rappresenta una minaccia alla loro partecipazione alla sfera pubblica. In un’intervista con Tech Policy Press, Purdon ha infatti dichiarato che «le molestie online avranno un costo maggiore per le donne in politica perché tali molestie si manifestano non solo come attacchi alla competenza politica, ma anche come rifiuto culturale delle donne».

L’uso dell’intelligenza artificiale per denigrare le donne 

Negli ultimi anni, con lo sviluppo dei programmi di intelligenza artificiale, le molestie online contro le donne in politica hanno preso una nuova piega. Ed è qui che arriviamo al problema dei deepfake pornografici che hanno preso di mira svariate donne in politica in tutto il mondo. 

A gennaio 2025, il quotidiano tedesco Der Spiegel ha pubblicato un’inchiesta sul problema crescente dei deepfake pornografici. Già esistenti nel 2017, questi hanno inizialmente reso oggetto di fantasie sessuali celebrità come Scarlett Johansson, in piena violazione del consenso delle persone coinvolte. Con il passare del tempo, questo tipo di contenuti hanno cominciato a spopolare sempre più, con la diffusione ー tra le altre cose ー di applicazioni che permettono di “svestire” senza il loro consenso le donne raffigurate nelle foto presenti sui loro social media privati. In Spagna, Germania, Stati Uniti e Corea del Sud sono stati registrati casi in cui a scuola alcuni studenti avevano usato applicazioni di questo tipo per creare deepfake pornografici delle loro compagne di classe a partire da una semplice foto del loro volto. 

Secondo il report dell’azienda Sensity AI, che gestisce l’omonimo software di riconoscimento di contenuti deepfake, il 90-95 per cento di questi video è materiale pornografico non consensuale. In circa il 90 per cento dei casi i soggetti sono donne. Non solo, ma bisogna sottolineare anche che «molti dei programmi di intelligenza artificiale che producono immagini di nudo», riporta l’inchiesta di Der Spiegel, «non sono nemmeno in grado di elaborare immagini di uomini».

Le conseguenze per le vittime sono disastrose da un punto di vista psicologico e possono impattare in maniera determinante la loro vita. «È disumanizzante. E la realtà è che sappiamo che questo potrebbe influire sull’occupabilità lavorativa di una persona», ha detto a Euronews Noelle Martin, attivista e ricercatrice presso l’Università dell’Australia Occidentale, che da dieci anni si occupa di abusi basati sulle immagini che lei stessa ha subìto

Questo fenomeno, però, non tocca solo la sfera individuale delle vittime, ma anche la sfera sociale di tutte le donne, minando la loro dignità e sicurezza, oggettivandole e scoraggiandone la partecipazione alla vita pubblica. Com’è successo in Corea del Sud, dove moltissime giovani donne hanno cancellato i propri account sui social media o le loro foto online per paura di diventare vittime di abusi. «Siamo frustrate e arrabbiate perché siamo costrette a censurare il nostro comportamento e il nostro uso dei social media, pur non avendo fatto nulla di male», ha detto alla BBC Ah-eun, una studentessa universitaria le cui compagne sono state prese di mira.

L’assenza di una legislazione

Il problema principale di questa questione, come spesso accade con gli usi impropri di innovazioni tecnologiche, è il vuoto legislativo. 

A livello europeo, il Regolamento 2024/1689, meglio noto come AI Act, non menziona in alcun punto gli abusi digitali nei confronti delle donne, né prevede pene severe per chi produce deepfake pornografici. Allo stesso modo, il Digital Service Act (DSA), introdotto nel 2023, non affronta la questione dei deepfake non consensuali. 

In Italia, al momento, come avevamo già spiegato in un approfondimento, ogni caso di deepfake non consensuale è affidato all’art. 612-ter del codice penale, che punisce la condivisione non consensuale di materiale intimo. Tale norma però non è stata pensata per la punizione di reati commessi con l’uso di intelligenza artificiale, e in passato erano stati sollevati dubbi sulla sua efficacia in questi casi specifici.

Al momento, è in atto la discussione del Disegno di Legge (DDL) “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” che introdurrebbe ー tra le altre cose ー l’art. 612-quater del codice penale, che punirebbe il nuovo reato di “Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”. L’introduzione di questa norma a livello penale, anche se non c’è un esplicito riferimento al fenomeno dei deepfake pornografici, potrebbe quindi colmare in parte questo vuoto legislativo.  

È necessario però soffermarsi su quella che 84 associazioni femminili coreane, in seguito agli scandali di pornografia deepfake che hanno toccato molte scuole del Paese, hanno chiamato «la causa principale di questo fenomeno»: il sessismo strutturale che pervade la nostra società, e che si può risolvere con l’educazione e con la parità di genere. Commentando la scoperta di video deepfake online che prendevano di mira le deputate statunitensi, l’amministratrice delegata dell’American Sunlight Project Nina Jankowicz ha affermato: «Non si tratta solo di un problema di tecnologia, ma di un attacco diretto alle donne che ricoprono ruoli di leadership e alla democrazia stessa».

Potrebbero interessarti
Segnala su Whatsapp