
Spotify ha un problema di brani e artisti generati con l’IA, ma sta provando a risolverlo
Sulla piattaforma si sono diffusi artisti fantasma e voci clonate che Spotify vuole contrastare applicando un filtro anti-spam ed etichettando i brani prodotti da IA
Giovedì 25 settembre, Spotify ha annunciato nuove politiche per affrontare la crescente presenza di contenuti generati da intelligenza artificiale sulla piattaforma.
I problemi principali che la società dichiara di voler affrontare riguardano l’abbondanza di spam e “slops”, ossia contenuti di bassa qualità prodotti in massa, l’impersonificazione degli artisti e la scarsa trasparenza nel rilevare quando un brano è stato creato o modificato con IA.
Dunque, l’intelligenza artificiale non viene messa al bando, ma diventa oggetto di regole più stringenti, con l’obiettivo dichiarato di Spotify di proteggere tanto gli utenti quanto i musicisti da pratiche manipolatorie.
Artisti fantasma ma guadagni reali
Un caso che ha fatto discutere è quello dei The Velvet Sundown, una band fittizia i cui brani, generati utilizzando l’intelligenza artificiale, hanno superato il milione di ascoltatori mensili. Comparso dal nulla nel 2025, il “gruppo” ha all’attivo già tre album e alcune sue canzoni sono finite misteriosamente nelle playlist di utenti rimasti insospettiti dall’assenza di informazioni sui quattro componenti della band, nonostante la spunta blu di artista verificato.
Il fenomeno non è nuovo. A gennaio 2025 la giornalista Liz Pelly aveva già denunciato la diffusione di “artisti fantasma” che popolano playlist di musica di sottofondo, dal jazz alla bossa nova. L’inchiesta descriveva il programma “Perfect Fit Content” (PFC), con cui Spotify collabora con case di produzione per ottenere musica a basso costo. In pratica, i musicisti ricevono compensi fissi e cedono i diritti dei brani, che finiscono poi nelle playlist ufficiali della piattaforma. Un team editoriale promuove e seleziona questi pezzi, garantendo loro una quota significativa di stream con margini più alti per l’azienda proprio perché non deve corrispondere royalties per ogni riproduzione.
Il problema non riguarda solo Spotify, ma l’intero ecosistema dello streaming musicale; piattaforme come Apple Music e Amazon Music (ma anche YouTube) stanno registrando un’esplosione di tracce prodotte da IA. Il meccanismo, come per altre piattaforme, punta a trattenere l’utente il più a lungo possibile, offrendo musica pensata per un ascolto passivo – la musica lo-fi è l’esempio perfetto. Purtroppo, una conseguenza importante è la normalizzazione di contenuti anonimi e low cost, che svalutano la creatività e sviliscono generi che hanno la propria storia, dalla musica classica all’hip hop.
Voci clonate e streaming truccato
Un altro fronte critico riguarda l’impersonificazione. Siamo abituati a pensare ai deepfake in formato video, ma anche in ambito musicale esistono gli “AI clones”, canzoni che riproducono la voce di un artista senza il suo consenso. Spotify afferma di aver rimosso oltre 75 milioni di brani spam nell’ultimo anno, molti dei quali frutto di clonazione vocale. Secondo uno studio indipendente, i musicisti potrebbero perdere circa 4 miliardi di euro all’anno a causa della diffusione di musica generata con IA, a fronte di un ricavo per le piattaforme musicali di 16 miliardi di euro all’anno entro il 2028.
Un esempio eclatante è quello di Blaze Foley, cantautore country statunitense assassinato nel 1989 e “resuscitato” quest’estate con una nuova canzone caricata su Spotify. Prima di essere rimosso, il brano “Together” era accompagnato da un’immagine IA che non somiglia all’artista e dal marchio di copyright di una società terza, già coinvolta in operazioni analoghe.
A complicare il quadro c’è il fenomeno del “fraud streaming”, pratica che sfrutta le piattaforme musicali per generare guadagni illeciti caricando musica falsa, di bassa qualità e prodotta con IA sotto il nome di artisti reali o con nomi simili. Così chi pubblica musica falsa riesce a intercettare le royalties destinate a terzi, approfittando dell’assenza di controlli stringenti nei processi di distribuzione. Un’ulteriore tecnica consiste nell’utilizzare reti di bot e account fasulli per gonfiare artificialmente gli stream, incassando così compensi per brani che nessuno ascolta davvero.
Neutralità solo in apparenza
Per contrastare questi problemi, Spotify sta introducendo un filtro antispam avanzato e ha aderito a un nuovo standard che permetterà di specificare quale ruolo abbia avuto l’intelligenza artificiale nella creazione di un brano.
L’azienda sottolinea di non produrre né possedere direttamente musica, poiché tutto arriva in licenza da terzi, e in questo modo cerca di presentarsi come un semplice intermediario. In realtà, la piattaforma decide attivamente cosa promuovere e raccomandare, monetizza i contenuti tramite abbonamenti e pubblicità e finisce per plasmare gusti e flussi economici della musica. Non è quindi una terza parte neutrale.
Per ora, Spotify non è designata come “Very Large Online Platform” ai sensi del Digital Services Act, la legge sui servizi digitali dell’Unione europea, ma potrebbe esserlo in futuro. In quel caso dovrebbe rispettare obblighi più stringenti di trasparenza e gestione dei rischi sistemici legati al design della piattaforma e a possibili abusi, come manipolazione, disinformazione e pratiche economiche scorrette.
Quando etichette e autodichiarazioni non bastano
Limitarsi a etichettare l’uso dell’IA è una soluzione semplice a un problema complesso, poiché oggi l’intelligenza artificiale può intervenire in fasi molto diverse del processo creativo – dalla composizione alla post-produzione, una dinamica difficilmente riducibile a una singola dicitura. Inoltre, affidarsi all’autodichiarazione, significa di fatto delegare la responsabilità a chi pubblica carica i brani senza garantire un reale controllo.
La tendenza si allinea con le disposizioni dell’AI Act, il regolamento dell’Unione europea sull’intelligenza artificiale, che da un lato impone trasparenza sull’uso dell’IA, e dall’altro introduce criteri rigorosi sui dati di addestramento degli algoritmi, soprattutto quando si tratta di opere protette da copyright. Si pone così una domanda cruciale, tanto legale quanto etica: quali cataloghi musicati vengono utilizzati per alimentare questi sistemi?
Su questo punto, Spotify ha recentemente aggiornato i propri termini e condizioni, vietando a utenti e sviluppatori di utilizzare i contenuti della piattaforma per allenare modelli di IA, ma allo stesso tempo riservandosi il diritto di impiegare i dati degli utenti – cronologia, ascolti, interazioni – per le proprie finalità. Non sorprende quindi che la piattaforma svedese stia puntando sempre di più sull’IA, integrando perfino la possibilità di trasformare gli utenti in co-autori attraverso remix personalizzati. Una scommessa che potrebbe ridefinire un intero settore e che mette in luce la tensione di fondo tra la promessa di proteggere musica e creatori e la spinta a massimizzare i profitti, trasformando gli ascoltatori in risorse da sfruttare.
- L’IA generativa è addestrata principalmente in inglese, e questo è un problemaL’IA generativa è addestrata principalmente in inglese, e questo è un problema
- Gli account TikTok che utilizzano avatar IA di giornalisti reali per diffondere notizie falseGli account TikTok che utilizzano avatar IA di giornalisti reali per diffondere notizie false