Logo

La multa della Commissione europea a X non è una notizia come un’altra

È la prima decisione di non conformità adottata sotto il Digital Services Act, e ha colpito una delle piattaforme con più capacità di influenzare il dibattito pubblico

18 dicembre 2025
Condividi

A due anni dall’inizio dell’indagine avviata a fine 2023, lo scorso 5 dicembre 2025 la Commissione europea ha comminato a X una multa da 120 milioni di euro per violazioni del Digital Services Act (DSA), la normativa che impone obblighi di trasparenza e responsabilità alle grandi piattaforme che operano negli Stati membri Ue. Una sanzione pesante, la prima decisione di non conformità (non-compliance) adottata sotto il DSA. La Commissione, nelle sue motivazioni, insiste su un punto: non si tratta di “censura” o di controllo politico dei contenuti, ma di regole su come una piattaforma costruisce fiducia verso chi la popola, rende visibile la pubblicità e consente a ricercatori qualificati di studiare rischi sistemici come disinformazione e manipolazione attraverso la trasparenza dei dati.

Perché X è stata multata

La Commissione contesta alla piattaforma di Musk tre violazioni legate alla trasparenza. La prima riguarda il “deceptive design”, cioè un design ingannevole della spunta blu di verifica degli account: dopo l’introduzione dell’abbonamento nel 2023, la spunta non certifica più in modo affidabile identità e autorevolezza, ma può essere comprata da chiunque fornisca abbastanza dati personali alla piattaforma, generando confusione su chi sia davvero un personaggio pubblico, un’istituzione o un brand. La Commissione descrive questa funzione come un elemento grafico che sembra una “verifica” ma spesso è ottenuta soltanto dietro pagamento, con ricadute pratiche su truffe, impersonificazioni e credibilità delle informazioni che circolano.

La seconda contestazione riguarda l’“advertising repository”, l’archivio pubblico degli annunci che dovrebbe permettere a cittadini e ricercatori di capire chi paga cosa, a chi viene mostrato e con quali criteri. Il DSA chiede che questo archivio sia aperto e consultabile per ridurre il rischio che la pubblicità diventi un veicolo di propaganda o frode. La Commissione sostiene che, su X, quell’archivio non raggiunga lo standard richiesto: troppo incompleto e troppo poco funzionale per garantire uno scrutinio pubblico.

La terza violazione riguarda l’accesso ai dati per i ricercatori “vetted”, cioè accreditati attraverso un processo previsto dal DSA. Il legislatore europeo ha costruito un canale per permettere a università e centri di ricerca di studiare rischi sistemici (per esempio disinformazione, campagne coordinate, hate speech, effetti degli algoritmi di raccomandazione) con dati più approfonditi di quelli pubblici. La Commissione sostiene che X non abbia garantito questo accesso come richiesto.

Che cosa prevede il Digital Services Act e come funziona

Il Digital Services Act è il regolamento europeo che aggiorna le regole per i servizi digitali: social media, marketplace, app store, piattaforme video, motori di ricerca e altri intermediari che organizzano la visibilità dei contenuti online. Si tratta di un complesso sistema normativo che parte da obblighi base per tutti i social media e sale di intensità per chi ha più utenti e più capacità di influenzare il dibattito pubblico. Social media molto popolati, come X, ricadono nella definizione di “Very Large Online Platforms” (VLOPs), piattaforme con più di 45 milioni di utenti mensili nell’Unione europea, pari a circa il 10 per cento della popolazione. Per questo la piattaforma è sottoposta alle regole più stringenti, comprese valutazioni dei rischi e audit indipendenti. 

Per le VLOPs la supervisione non è solo nazionale: la Commissione europea ha poteri diretti di indagine ed enforcement. Può chiedere direttamente a una piattaforma documenti e dati (con richieste formali e scadenze), aprire un procedimento se sospetta una violazione e condurre l’indagine. Può anche imporre cambiamenti concreti al modo in cui la piattaforma funziona, per esempio su trasparenza della pubblicità, gestione dei rischi e accesso ai dati per ricercatori, e verificare questi impegni tramite audit e ispezioni. Oltre alla facoltà di comminare sanzioni, nei casi più estremi può arrivare a chiedere a un giudice nazionale misure temporanee che limitino il servizio nell’Ue.

Qui entra in gioco l’aspetto procedurale, quello che spesso manca nel dibattito pubblico. Il DSA opera infatti come una catena di obblighi e controlli: richieste di informazioni, valutazioni sui rischi, misure di mitigazione, rapporti di trasparenza, canali di segnalazione e ricorso per gli utenti, verifiche esterne, fino alle sanzioni. Le multe possono arrivare fino al 6 per cento del fatturato annuo globale di un’azienda e possono essere accompagnate da penalità giornaliere se la piattaforma non si adegua. In sostanza, il procedimento non finisce con la multa, ma impone alla piattaforma colpita un adeguamento alle regole per evitare di incorrere in ulteriori sanzioni.

Il provvedimento contro X è connesso alla struttura stessa del prodotto. La spunta blu, per esempio, influisce su come gli utenti interpretano ciò che vedono, su chi credono “autorizzato”, su chi sembra ufficiale in una crisi o durante un’elezione. Quando quel segnale diventa acquistabile senza controlli robusti, la piattaforma crea un ambiente in cui l’imitazione costa poco (circa 7 euro al mese) mentre il precedente meccanismo di verifica richiedeva tempo, attenzione, competenze e selezione. Già nel 2022, quando l’allora Twitter introdusse e poi sospese il sistema di spunta blu a pagamento per l’esplosione di account falsi, Reuters documentò il proliferare di impersonificazioni che sfruttavano proprio la credibilità visiva del badge, con operazioni di disinformazione che andarono a colpire anche il sistema delle contrattazioni borsistiche. Nel 2023 il Guardian descrisse un altro effetto collaterale: truffatori che usavano account con spunta blu per fingersi assistenza clienti e convincere utenti a consegnare dati sensibili o cliccare link malevoli. Il controllo sulla disinformazione non riguarda soltanto post e notizie falsi, ma la credibilità stessa della piattaforma. Su X, secondo le conclusioni della Commissione europea, è più facile far passare per autorevole ciò che non lo è.

Lo stesso vale per i contenuti sponsorizzati. Un archivio annunci opaco è un problema informativo perché la pubblicità, soprattutto quella politica o su temi sociali, è uno dei canali più efficaci per spingere narrazioni senza esporsi troppo: messaggi mirati a gruppi specifici, difficili da vedere dall’esterno, spesso impossibili da verificare in tempo reale. Il DSA pretende che un archivio annunci sia consultabile anche tramite API, cioè interfacce che permettono a strumenti esterni di interrogare e analizzare dati in modo sistematico (disponibili nel vecchio Twitter e chiuse da Elon Musk nel nuovo X). È un modo per dare ai controllori della società civile gli strumenti per contrastare al meglio campagne pericolose e disinformative.

Nel 2023 la Commissione ha aperto un procedimento formale contro X anche per aree legate alla gestione del rischio e alla disinformazione, in un contesto segnato dalla guerra e dalla polarizzazione globale. Nel 2025 Bruxelles ha ribadito, con linee guida dedicate, che l’accesso ai dati per i ricercatori accreditati è uno strumento pensato per capire e misurare i rischi, non per spiare le aziende. Se questo strumento viene ostacolato, verificare le affermazioni della piattaforma su quanto stia davvero riducendo disinformazione o contenuti nocivi diventa un’operazione complessa, quando non impossibile.

La disinformazione le note della collettività

Tra le criticità sottolineate dai regolatori europei  la circolazione sulla piattaforma di contenuti fuorvianti e illegali in momenti di crisi. Ad esempio, dopo l’attacco di Hamas a Israele il 7 ottobre 2023, Bruxelles ha usato i poteri del DSA per chiedere a X informazioni e misure contro la diffusione di materiale illegale e disinformazione, menzionando anche contenuti terroristici e violenti. In tempo di crisi, la piattaforma diventa una sorta di agenzia di notizie non giornalistica: ogni scelta di amplificare contenuti solo in base all’engagement che creano e non in base alla loro autorevolezza, e ogni mancata moderazione, hanno effetti reali sugli utenti.

X spesso risponde alle osservazioni dei regolatori europei indicando “Community Notes”, il sistema di note della comunità che aggiunge contesto ai post, come alternativa alla verifica professionale e alle etichette degli enti di verifica delle notizie. Su quanto funzioni davvero questo strumento la letteratura scientifica sta tratteggiando un quadro più sfumato: alcuni studi trovano effetti positivi su percezione e diffusione della disinformazione, altri evidenziano limiti strutturali, tempi lunghi, dipendenza da dinamiche di comunità e incentivi che non sempre premiano il fact-checking rapido nelle ondate virali. 

Questo non significa che le note “non servano”, significa che non sono un sostituto automatico della responsabilità della piattaforma, soprattutto quando la disinformazione corre più veloce della correzione. Un altro strumento che X indica come utile alla verifica delle notizie è Grok, il chatbot IA della piattaforma, interrogabile dagli utenti nelle risposte di qualsiasi post attraverso un tag. Quest’ultimo, però, è spesso soggetto ad allucinazioni, cioè a scambiare per vere informazioni false, inventate o incoerenti che sembrano plausibili dal punto di vista semantico ma che non hanno fondamento nella realtà o nei dati di addestramento. Ne è un esempio quanto avvenuto relativamente all’attacco terroristico del 14 dicembre a Bondi Beach, a Sydney. Grok ha alimentato in più occasioni notizie false e infondate sull’accaduto: ad esempio ha erroneamente identificato l’uomo che ha disarmato uno degli attentatori, il siriano Ahmed al Ahmed, come un cittadino australiano di nome “Edward Crabtree”, presunto esperto informatico. Crabtree però non esiste: era stato indicato come l’autore del gesto eroico da un sito web fittizio, la cui condivisione massiccia su X aveva indotto all’errore l’IA della piattaforma.

La risposta americana alle norme europee

Elon Musk ha visto nella multa un attacco politico nei suoi confronti, arrivando a invocare su X l’abolizione dell’Unione europea, descritta come «burocrazia di non eletti» e «oppressiva». In molti sistemi autoritari, come la Russia e l’Iran, X è inaccessibile mentre nonostante la multa nell’UE il social media è ancora liberamente consultabile dai cittadini europei. Nei due Paesi sopra citati, le autorità impongono ai provider blocchi e rallentamenti per controllare l’informazione e limitare mobilitazioni online. In Russia, Roskomnadzor (l’autorità federale russa che vigila su media, telecomunicazioni e internet) ha bloccato X nel marzo 2022; in Iran il blocco è attivo dal 2019. Sul versante statunitense, il segretario di Stato Marco Rubio ha scritto su X che la multa «non è un attacco a X», ma «un attacco a tutte le piattaforme tech americane e al popolo americano», aggiungendo che «i giorni in cui si censuravano gli americani online sono finiti». Nelle stesse ore, scrive Reuters, anche il presidente degli Stati Uniti Donald Trump ha definito la sanzione «nasty» (sgradevole) e ha messo in dubbio la legittimità della scelta europea. La Commissione e diversi leader degli Stati membri hanno replicato sottolineando che il provvedimento non inerisce la libertà di opinione o la politica estera, ma il rispetto di regole uguali per tutti. Il cancelliere tedesco Friedrich Merz, per esempio, ha dichiarato che chi opera in Europa deve obbedire alle leggi europee, così come le aziende europee devono rispettare regole severe negli Stati Uniti. 

Che cosa può cambiare su X dopo la multa

La sanzione impone a X una scelta: adeguarsi in modo sostanziale o trasformare la vicenda in una battaglia politica permanente, con ricorsi e scontri pubblici. La piattaforma deve comunicare misure correttive sulla spunta blu entro circa 60 giorni lavorativi e presentare un piano più ampio su archivio annunci e dati ai ricercatori entro 90 giorni lavorativi. È qui che si misurerà l’efficacia del DSA: non tanto nel valore della multa, ma nella capacità di costringere una piattaforma così imponente e diffusa a ricalibrare i suoi meccanismi di fiducia, rendere davvero interrogabile la pubblicità e aprire dati a chi studia i rischi.

Oltre alla questione sulla trasparenza, resta aperta la partita più importante: la diffusione incontrollata sulla piattaforma di contenuti illegali e disinformazione. Una battaglia aperta da tempo, che esula da questa decisione proprio per evitare che la sanzione venga letta come un giudizio politico sui contenuti. L’UE intende colpire prima ciò che è misurabile e verificabile (trasparenza e accesso ai dati) per poi insistere sulla tipologia dei contenuti, dove i confini sono più sfumati. Se questa operazione sarà possibile lo dirà la prossima fase, quando Bruxelles dovrà dimostrare che il DSA può intervenire anche dove finora le piattaforme hanno sempre rivendicato piena discrezionalità: la presunta libertà assoluta di parola, anche quando quella parola è infondata e pericolosa.

Potrebbero interessarti
Segnala su Whatsapp