Logo

Quanto vale la nostra immagine al tempo dell’intelligenza artificiale?

Sempre più persone scelgono di vendere la propria immagine alle piattaforme, perdendo però il controllo sul suo utilizzo

25 agosto 2025
Condividi

Negli ultimi anni, con l’esplosione di social network come Facebook e Instagram, condividere foto e video online è diventato quasi un gesto automatico. Un’abitudine quotidiana per mostrare a chi ci segue – amici, conoscenti e non – frammenti delle nostre vite: dalle vacanze spensierate ai momenti più semplici della routine, passando per immagini di famiglia, lavoro e amicizie. 

Con il passare del tempo, però, e soprattutto grazie ai continui e rapidi progressi nel campo dell’intelligenza artificiale, caricare online foto proprie o di chi ci sta vicino non è più un gesto privo di rischi o conseguenze. La dimensione digitale si fa sempre più complessa, portando con sé nuove sfide da affrontare e la consapevolezza che il confine tra la nostra identità digitale e la realtà è sempre più sottile. Foto e immagini condivise in rete non sono più soltanto una questione di privacy o memoria familiare, ma possono trasformarsi in una risorsa per l’intelligenza artificiale. Ciò che fa la differenza è il consenso. 

Da un lato, le fotografie di bambini e bambine condivise dai genitori possono trasformarsi in materia prima per applicazioni di intelligenza artificiale programmate per generare immagini false o contenuti intimi non consensuali. Dall’altro, c’è chi sceglie volontariamente di vendere il proprio volto, cedendolo ad alcune piattaforme di intelligenza artificiale che lo trasformano in un vero e proprio bene commerciale e tecnologico. Anche in questo caso, non senza conseguenze. 

Condividere foto di minori è sempre più rischioso

Dal momento in cui nasce un figlio, molti genitori sentono il bisogno di condividere la notizia con la propria rete di contatti, spesso condividendo un post o una storia sui propri profili social che mostra il nuovo arrivato. Nei mesi e negli anni a seguire, la condivisione continua con foto del bambino durante il primo giorno di scuola, mentre mangia, dorme o si diverte in casa. Gesti diventati ormai così comuni da aver persino trovato un parola in inglese che li identifica: “sharenting”. Si tratta di un neologismo, coniato negli Stati Uniti, che deriva dalle parole inglesi “share” (condividere) e “parenting” (genitorialità) e che descrive l’abitudine sempre più diffusa dei genitori di condividere foto, video o altre informazioni riguardanti i propri figli sui loro profili social. 

Secondo quanto riportato in uno studio pubblicato nel 2023 dall’European pediatric association (EPA/UNEPSA), associazione scientifica paneuropea che promuove la salute dei bambini, i genitori condividono online in media circa 300 foto e dati sensibili riguardanti i loro figli ogni anno. In media, l’81 per cento dei bambini che vivono nei Paesi occidentali ha una qualche forma di presenza online prima dei 2 anni di età, con il 92 per cento negli Stati Uniti e il 73 per cento in Europa. Entro poche settimane dalla nascita il 33 per cento dei bambini ha foto e informazioni pubblicate online.

Un sondaggio pubblicato nel 2020 e condotto tra genitori della Repubblica Ceca e della Spagna, ha rivelato che più di nove genitori su dieci condividono il nome completo del proprio figlio e quasi sette su dieci hanno condiviso una foto del volto del bambino. Il 3,5 per cento dei genitori cechi ha ammesso di aver pubblicato online una foto del proprio figlio nudo. Spesso tutto questo avviene senza che chi condivide le foto online sia pienamente a conoscenza dei rischi. Alcune interviste condotte da vari ricercatori tra un campione di madri residenti in Estonia hanno mostrato che molte di loro non sono in alcun modo preoccupate di condividere pubblicamente informazioni sui propri figli sui social media e non considerano i potenziali rischi per la privacy.

La condivisione di questi materiali può però avere implicazioni dirette e indirette per la privacy del minore ritratto nelle foto o nei video. L’autorità italiana Garante per la protezione dei dati personali (Gpdp) invita a riflettere se «i nostri figli in futuro potrebbero non essere contenti di ritrovare loro immagini a disposizione di tutti o non essere d’accordo con l’immagine che gli stiamo costruendo». 

Inoltre, ciò che viene pubblicato online o condiviso nelle chat di messaggistica rischia di sfuggire al controllo di chi ha diffuso per primo le immagini, soprattutto se queste riguardano minori. Ciò che appare su uno schermo può essere copiato, modificato e usato impropriamente. Una delle minacce più recenti in questo senso riguarda le app che, utilizzando l’intelligenza artificiale generativa, possono generare automaticamente nudi deepfake (noti come deep nude) a partire dal volto di chiunque. Sempre più minori vengono coinvolti in casi di utilizzo di questi software e secondo uno studio di Save the children, pubblicato nel luglio 2025, in Spagna un giovane su cinque ha dichiarato che immagini di deep nude sono state diffuse online senza il suo consenso prima dei 18 anni.

Le cosiddette app “nudificatrici” sono semplici, economiche e alla portata di tutti e possono essere utilizzate da chiunque, alcune offrendo anche prove gratuite. Chi compie questo tipo di abusi in molti casi copia una foto trovata online e la inserisce in questo tipo di strumenti, per generare contenuti intimi non consensuali di minori (ma anche di personalità di rilievo e celebrità). Per ridurre il rischio, i genitori che vogliono condividere immagini dei propri figli e delle proprie figlie potrebbero pubblicarle su account che solo gli amici più stretti e i membri della famiglia sono autorizzati a vedere. Questo tuttavia non elimina del tutto i rischi. 

Sarah Gardner, fondatrice della Heat Initiative, un gruppo di difesa della sicurezza dei bambini, ha spiegato al New York Times che gli autori di abusi sessuali su minori di solito conoscono la vittima, quindi il colpevole potrebbe comunque trovarsi tra i pochi follower che hanno accesso al profilo privato. «Solo perché un account è privato, questo non significa che qualcuno che conoscete non prenda le vostre foto e ne faccia qualcosa di malevolo», ha dichiarato.

Ad esempio, già nel 2015, cioè prima dell’arrivo dei deepfake generati dall’IA, una madre di Riverton, un paese nello Utah, negli Stati Uniti, scoprì che le foto dei suoi figli, che aveva condiviso solo con amici e familiari su Facebook, erano finite su siti web pedopornografici.

In sintesi, la condivisione online di immagini e informazioni dei minori, anche se fatta con buone intenzioni, comporta rischi concreti e spesso sottovalutati per la privacy e la sicurezza dei bambini, rischi che possono persistere ben oltre il controllo dei genitori.

Adulti che vendono la propria immagine 

D’altra parte, mentre molti genitori condividono immagini dei propri figli senza rendersi pienamente conto dei rischi, esiste anche chi vende direttamente la propria immagine alle piattaforme di intelligenza artificiale. Azione sempre più comune nel mondo in rapida evoluzione della pubblicità nell’era dell’IA generativa. 

Nel 2024 la piattaforma social cinese TikTok ha introdotto un menù di avatar generati con l’intelligenza artificiale che consentono ai marchi e alle grandi aziende di creare annunci pubblicitari utilizzando questi personaggi virtuali che assomigliano a persone reali. TikTok ha spiegato che gli avatar disponibili sono di due tipi e i brand potranno scegliere tra una serie di personaggi di stock, creati a partire da filmati di attori reali retribuiti che sono stati concessi alla piattaforma in licenza per uso commerciale, oppure potranno optare per un avatar personalizzabile con le caratteristiche che preferiscono. Inoltre i brand che utilizzano questo strumento possono modificare i personaggi in base alle loro necessità specifiche,  collocarli in ambienti diversi e dare loro istruzioni su cosa dire e cosa fare.

TikTok ha assicurato che gli annunci pubblicitari realizzati con queste nuove funzionalità saranno etichettati automaticamente come contenuti generati dall’intelligenza artificiale per garantire la massima trasparenza. Inoltre, la piattaforma ha garantito che questi nuovi strumenti sono progettati per «migliorare e ampliare l’immaginazione umana, non per sostituirla». 

I video promozionali generati utilizzando avatar generati artificialmente stanno spopolando sempre di più sul web per produrre i cosiddetti “user generated content” o “UGC”, cioè contenuti di qualsiasi tipo come video, recensioni, immagini, generati dagli utenti, ma spesso sfruttati per strategie di marketing ed editoriali. In molti casi, infatti, i brand usano questo tipo di contenuti per promuovere autenticità, costruire una comunità e stimolare il coinvolgimento degli utenti. Mostrando i contributi creati direttamente dagli utenti, i marchi possono costruire relazioni più forti con il pubblico, traendo vantaggio da sponsorizzazioni che sembrano autentiche, ma di fatto restano pubblicità guidata dal mercato. 

Non si tratta affatto di un’iniziativa isolata, dal momento che molte delle maggiori piattaforme tecnologiche stanno offrendo alle aziende strumenti di creazione di annunci attraverso l’uso dell’IA generativa. Ad esempio anche Google Workspace ha promosso una serie di avatar creati con l’IA per «creare contenuti video di alta qualità per l’onboarding [inteso come il processo di inserimento aziendale di nuove persone, ndr], le campagne pubblicitarie, le spiegazioni dei prodotti e molto altro, senza bisogno di telecamere o complicati coordinamenti [tra professionisti, ndr]». 

Sono proprio questo tipo di contenuti, che mirano all’autenticità come caratteristica principale, a essere sempre più generati artificialmente. Con una semplice ricerca su un motore di ricerca online appaiono numerose piattaforme, in molti casi gratuite, che permettono di generare un avatar iper realistico e dargli istruzioni per creare un video secondo le proprie esigenze. Sempre più persone scelgono di vendere la propria immagine a diverse piattaforme di questo tipo, permettendo così che venga utilizzata per addestrare l’intelligenza artificiale, basandosi su persone reali. 

Un articolo pubblicato dal New York Times racconta le esperienze di alcune persone che hanno ceduto le proprie sembianze a TikTok per cifre irrisorie che vanno dai 500 ai 750 dollari, senza ricevere i diritti d’autore quando le aziende utilizzano i loro avatar. Un video pubblicato nel febbraio 2025 su YouTube da DOCO Documentaries racconta la storia di Lucy, una ragazza che ha venduto la sua immagine a una compagnia di IA che l’ha comprata per 1.500 sterline (poco più di 1.700 euro), una cifra irrisoria rispetto alle conseguenze che questo genere di vendita comporta: la perdita di controllo sulla propria immagine. 

La maggior parte delle persone che ha raccontato la propria storia al New York Times, ad esempio, ha spiegato che, una volta venduta la propria immagine a TikTok, si aspettavano che i loro avatar sarebbero stati utilizzati solo all’interno della piattaforma, anche in base agli accordi presi. I loro contratti, invece, lasciavano spazio alla possibilità che i video generati artificialmente con le loro sembianze apparissero anche su altri software di proprietà di ByteDance, l’azienda che possiede TikTok, come l’app di video-editing CapCut. Inoltre Lucy, la ragazza intervistata da DOCO Documentaries, ha raccontato di essersi pentita di aver ceduto i diritti sulla propria immagine a una piattaforma, perché in questo modo si è privata della possibilità di guadagnare di più realizzando direttamente video promozionali con la sua presenza “reale”. 

Sempre più persone scelgono volontariamente di vendere la propria immagine alle piattaforme, ma questa decisione comporta inevitabilmente la perdita di controllo sul suo utilizzo. In un ambiente vasto e ancora troppo poco regolamentato come Internet – in particolar modo della sua intersezione con l’IA – bastano pochi istanti perché un volto finisca nelle mani sbagliate. Così, mentre per molti condividere la propria immagine (o quella dei figli) è ormai diventata una pratica percepita come normale, l’utilizzo dell’intelligenza artificiale per fini commerciali da parte delle aziende sta ridefinendo radicalmente le regole del gioco, rendendo ancora più fragile il confine tra tutela dell’identità e sfruttamento commerciale.

Potrebbero interessarti
Segnala su Whatsapp