Logo

Libertà di parola o libertà di odiare? Il prezzo umano delle piattaforme senza regole

Myanmar, Etiopia, Sri Lanka e India sono esempi di come la scarsa moderazione dei contenuti da parte delle Big Tech possa moltiplicare violenze, persecuzioni e instabilità sociale

10 ottobre 2025
Condividi

Sventolando la bandiera della libertà di parola, le Big Tech proprietarie dei social network stanno progressivamente allentando la moderazione dei contenuti sulle piattaforme. Per i gruppi e gli organismi per i diritti umani questa scelta rappresenta una grave minaccia alla sicurezza e ai diritti fondamentali su scala globale, che la comunità internazionale non può permettersi di ignorare.

Disinformazione, narrazioni tossiche e campagne d’odio già corrono a velocità vertiginosa per la Rete, puntando dritto contro le minoranze e i gruppi più vulnerabili ed emarginati. La battuta in ritirata sulla gestione dei contenuti ora spalanca le porte al dibattito senza regole, proprio mentre la società civile, alcuni governi, istituzioni e organizzazioni internazionali, le Nazioni Unite in testa, tentano a fatica di definire linee guida e politiche per arginarne i pericoli. 

Dal web – avverte, tra gli altri, il Global Centre for the Responsibility to Protect – oggi arrivano le sfide più urgenti all’impegno politico per prevenire e proteggere le popolazioni da genocidio, crimini di guerra, crimini contro l’umanità e pulizia etnica: indietreggiare adesso significa minare i progressi globali conquistati a caro prezzo. Peggio, è giocare d’azzardo con milioni di vite. Perché le piazze digitali non si limitano a riflettere il dibattito pubblico. Lo plasmano, orientano le percezioni collettive, costruiscono dinamiche politiche e sociali che si muovono ben al di là degli schermi. Possono guidare consapevolezza e prevenzione. Oppure diventare epicentri d’odio, a servizio delle logiche di violenza.

I social media ormai traboccano di contenuti divisivi, provocatori, sensazionalistici, materiale altamente incendiario propagato a dismisura dai processi algoritmici orientati a massimizzare il coinvolgimento. La ratio economica è evidente: retoriche radicali sui temi più sensibili catalizzano più interazioni, trattengono più a lungo gli utenti, moltiplicano i ricavi. La viralità paga. Ma ogni click è anche benzina sul fuoco dell’odio offline. Di questo passo, spogliate della moderazione nel nome dell’engagement e del profitto, le piattaforme rischiano di trasformarsi in acceleratori di atrocità in un mondo reale dagli equilibri fragilissimi, di per sé segnato da profonda polarizzazione e conflitti. È già successo.

Il precedente birmano

Quello dei Rohingya massacrati in Myanmar è forse il volto più nitido di questa deriva: Facebook, che nel Paese è praticamente l’Internet intero, è legato a doppio filo a quello che le Nazioni Unite considerano un genocidio a pieno titolo. Crimini e abusi di ogni sorta, «scioccanti per la loro brutalità e la diffusione capillare» – così si legge sul rapporto della missione internazionale indipendente di accertamento dei fatti siglato dagli investigatori delle Nazioni Unite a settembre 2018, sono stati preceduti da anni di propaganda anti-Rohingya da parte dell’élite militare birmana e dei gruppi nazionalisti buddisti radicali. 

Numerose inchieste giornalistiche e analisi indipendenti di alto profilo – dall’ONU alle organizzazioni non governative, fino agli istituti di ricerca più autorevoli – hanno provato quanto il colosso dei social media si fosse prestato a far loro da megafono, lasciando che disinformazione, discorsi d’odio e istigazione alla violenza popolassero pressoché indisturbati la piattaforma, soffiando forte sul fuoco ardente delle tensioni interetniche e delle discriminazioni di lunga data che attraversavano il Myanmar.

Ridotto a sede centrale di una vera e propria campagna di persecuzione all’ultimo post, Facebook aveva ospitato e reso virali discorsi d’odio e una pletora di fake news, offrendo ai registi di quello che fu poi descritto come «un esempio da manuale di pulizia etnica», scrive l’ONU un’arma rapida, economica ed efficace nella caccia al Rohingya. Che alla fine ha incontrato consenso a sufficienza, in lungo e in largo per il Paese: il terreno del caos era stato ben seminato, le atrocità erano possibili. Prima le parole, poi le fiamme sui villaggi.

Dall’agosto 2017, tra uccisioni sistematiche, torture, stupri e insediamenti rasi al suolo, le “operazioni di sgombero” del Tatmadaw (il nome ufficiale delle forze armate birmane) hanno spinto quasi un milione dei membri della minoranza musulmana apolide del Myanmar a riparare in Bangladesh. E a tutt’oggi centinaia di migliaia tra i rimasti sono costretti al confinamento e all’oppressione nello Stato di Rakhine. 

Il presidente della missione ONU ha parlato apertamente di «un ruolo determinante» del social di Zuckerberg «trasformato in una bestia» nella catastrofe del Myanmar. Amnesty International ha denunciato a più riprese il «contributo sostanziale» dell’azienda californiana ai crimini perpetrati contro i Rohingya, accusandola di aver promosso proattivamente messaggi tossici, denigratori e disumanizzanti nella logica di un modello di business incentrato sulla profilazione invasiva e la pubblicità mirata. La stessa Meta, messa all’angolo dalla quantità di prove accumulate al riguardo, a seguito di un rapporto autocommissionato, ha dovuto riconoscere di non aver fatto abbastanza per impedire che il suo portale fosse utilizzato per «fomentare divisioni e incitare alla violenza offline», impegnandosi in maggiori investimenti per migliorare la propria capacità di monitoraggio e risposta agli abusi (salvo poi ignorare ogni richiesta di risarcimento avanzata dagli attivisti Rohingya).

Dal 2021, quando il golpe ha soffocato nel sangue la breve parentesi democratica in terra birmana, la giunta militare è impegnata in sforzi costanti per bloccare l’accesso a Facebook, divenuto nel frattempo un’infrastruttura indispensabile alla resistenza civile. Ma non ha smesso di sfruttarlo per diffondere propaganda pro-regime e disinformazione. Assai dice sulla lezione mancata il fatto che ancora gli spazi virtuali – Telegram soprattutto – tra lacune e approcci permissivi alla moderazione, rimangano strumento di sorveglianza e repressione nelle mani del potere. Contribuendo di fatto a consolidare il sistema di violenza che perpetua le discriminazioni di genere, sopprime la libertà di espressione e di riunione pacifica, colpisce il dissenso con arresti arbitrari, mantiene i Rohingya in stato di apartheid. E questo nonostante le aziende di social media siano state ripetutamente richiamate alle proprie responsabilità «nell’identificare, prevenire e mitigare le violazioni dei diritti umani» anche dagli esperti delle Nazioni Unite.

Se finora sono caduti nel vuoto i numerosi appelli di giustizia per “il popolo dimenticato”, è altrettanto vero che il ruolo giocato dai social network nella crisi dei Rohingya è attualmente all’esame persino della Corte internazionale di giustizia. Un segnale chiaro che le questioni legali ed etiche sulla responsabilità delle piattaforme non possono più essere liquidate con leggerezza. 

Oltre il Myanmar. Non solo Meta

Dinamiche simili a quelle che hanno finito per devastare il Myanmar si sono replicate dentro molti altri confini. Etiopia, Sri Lanka, India, e altrove ancora. Stessi schemi su latitudini diverse. Per un periodo, critiche e scandali sembravano aver colpito le Big Tech abbastanza perché introducessero politiche più rigorose, seppur ancora imperfette: combinazione di tecnologia e moderazione umana, comitati di vigilanza, fact-checking subappaltato a organizzazioni terze credibili. 

Tante promesse, e le scuse d’accompagnamento per le “sviste del passato”, tornano ora a perdersi nella virata verso la normalizzazione di un approccio trasversalmente deregolamentato. Che preoccupa ancor di più nell’era dell’intelligenza artificiale generativa, che moltiplica ogni immaginabile possibilità di fabbricare e promuovere retorica infestante – pensiamo, uno tra tanti, al chatbot di X, Grok, al centro di nuove polemiche nei mesi scorsi per aver rilanciato invettive antisemite, tra teorie cospirazioniste, stereotipi e addirittura elogi a Hitler. Deepfake, chatbot, reti automatizzate dotate di una potenza di diffusione e personalizzazione estrema aprono la via a forme di manipolazione su larga scala sempre più sottili e difficili da controllare: un innesco esplosivo che mani sbagliate possono facilmente detonare sulle fratture sociali. Sembriamo correre spediti verso un ecosistema digitale che rischia di farsi punto cieco nella prevenzione delle atrocità.

Un esempio eloquente arriva dal fronte saheliano. Una memoria legale riservata visionata in esclusiva dall’Associated Press che documenta come il gruppo Wagner, compagnia militare privata russa, abbia promosso attraverso il web gravissimi abusi commessi in Mali e Burkina Faso, è al vaglio della Corte penale internazionale. Sollecitata a indagare sui «crimini commessi tramite Internet, che sono inscindibilmente collegati ai crimini fisici e aggiungono una nuova dimensione del danno a un gruppo esteso di vittime», il Tribunale potrebbe scrivere un precedente storico: l’atto stesso di condividere immagini di atrocità online potrebbe costituire di per sé crimine di guerra per oltraggio alla dignità personale. E anche crimine contro l’umanità per atti disumani volti a terrorizzare psicologicamente la popolazione civile.

«Wagner ha abilmente sfruttato le tecnologie dell’informazione e della comunicazione per coltivare e promuovere il suo marchio globale di mercenari spietati. In particolare, la loro rete Telegram, che descrive la loro condotta nel Sahel, è un’orgogliosa dimostrazione pubblica della loro brutalità», ha chiarito Lindsay Freeman, direttrice del programma di Tecnologia, diritto e politica del Centro per i diritti umani dell’Università della California, Berkeley, che un anno fa ha presentato il dossier all’Aia.

La traiettoria è imboccata da tempo. Meta che ristruttura il suo programma di moderazione e fact-checking, con un impatto possibile sulle popolazioni di tutto il mondo, non è che l’ennesimo passo diretto a costruire un’arena digitale senza freni né responsabilità.

X, l’era Musk e l’odio libero

Il Twitter/X dell’era Musk ne ha fatto il suo manifesto. Dal 2022 il patron di SpaceX ha licenziato il personale per la moderazione, ripristinato account bannati per minacce, molestie e disinformazione, sciolto i comitati consultivi per la sicurezza. I risultati parlano da sé: secondo uno studio pubblicato lo scorso febbraio dall’Università della California, Berkeley, i tassi settimanali di hate speech, collegati ai crimini d’odio offline, sono raddoppiati sul portale.

Una ricerca diffusa in agosto da Amnesty International rivela che X ha prodotto una «sbalorditiva amplificazione dell’odio» nel contesto delle violente rivolte contro musulmani e migranti che l’anno passato hanno travolto il Regno Unito dopo gli omicidi di Southport. Un racconto di una chiarezza disarmante di quanto nessuna società sia immune dai danni digitali capaci di spingere ondate di violenza identitaria.

Il 29 luglio 2024, poche ore sono bastate perché una valanga di informazioni false e fuorvianti sull’identità, la religione e lo status di immigrazione dell’autore della strage nel Merseyside inondasse X, alimentando i sentimenti di ostilità riversatisi per le strade inglesi: 27 milioni di visualizzazioni in meno di 24 ore per tutti i post virulenti che rilanciavano narrazioni razziste e islamofobe, trainati dall’account “Europe Invasion”, account che diffonde disinformazione contro le persone migranti; più di 580 milioni nelle due settimane successive per quelli di Tommy Robinson, attivista di estrema destra già bandito dalla maggior parte delle piattaforme tradizionali per violazione delle regole sull’incitamento all’odio

Per Pat de Brún, a capo del programma di Amnesty per la Big Tech Accountability, le scelte progettuali di X «hanno notevolmente aggravato i rischi per i diritti umani nelle comunità razzializzate in seguito alle rivolte di Southport e continuano a rappresentare un grave pericolo per i diritti umani ancora oggi».

Un’analisi tecnica sul codice open source di X mostra infatti come le sue architetture di classificazione algoritmica «privilegiano il coinvolgimento conflittuale rispetto alla sicurezza»: fintanto che generano conversazione, indipendentemente da quanto possano essere dannose, notizie false possono essere considerate prioritarie e propagarsi più rapidamente delle informazioni verificate; e a questo si aggiunge uno sbilanciamento di amplificazione per i post degli utenti Premium. Quando il bersaglio sono comunità religiose, etniche o altri gruppi marginalizzati – insiste l’organizzazione – i rischi in diritti e sicurezza diventano gravi e immediati. Che X non sappia (o non voglia) intervenire adeguatamente non è solo un fallimento operativo. È «una mancanza di rispetto dei diritti umani», chiosa il movimento.

Il mito della parola libera, a costo di quante vite?

Nel tentativo di assolversi dalle proprie responsabilità, i giganti del tech si trincerano dietro al mito della parola libera. «Nessuna censura», è il loro grido: «più parola, meno errori» per evitare di soffocare voci legittime (cosa che continua ad accadere molto spesso comunque, all’occorrenza). 

La libertà d’espressione è irrinunciabile. Ma non è l’assenza di regole a tutelarla: la compromette, piuttosto. Abbandonare la moderazione è una falsa soluzione – ripetono le reti per i diritti umani – che consegna il cyberspazio al discorso maggioritario, alla retorica al veleno e alla disinformazione, esponendo milioni di vulnerabili a pericoli sempre nuovi e tragicamente concreti. 

Le voci delle minoranze e di tutte le comunità target rischiano di essere messe al silenzio sotto il peso della violenza digitale incontrastata, fattore comprovato di atrocità. Proteggerle è un dovere condiviso da tutti gli attori globali. E non è affare da potersi delegare all’autoregolazione delle piattaforme. Una governance digitale etica e consapevole deve essere riconosciuta come questione di prima linea da tutta la comunità internazionale: il conto, diversamente, potrebbe rivelarsi assai salato. E potremmo doverlo pagare tutti.

«Nessuno dovrebbe correre pericoli mortali semplicemente pubblicando aggiornamenti o leggendo notizie su Facebook o X, o quando interagisce con WhatsApp o Telegram. Mentre queste aziende continuano ad accumulare immense ricchezze e influenza, devono essere ritenute responsabili per aver dato priorità al profitto rispetto alla sicurezza di milioni di persone» è il monito impellente nelle parole di Sarah Hunter, Senior Research and Advocacy Officer del Global Centre for the Responsibility to Protect.«Finché le piattaforme non tratteranno l’istigazione digitale con la stessa urgenza delle minacce fisiche», continua Hunter, «la prevenzione delle atrocità rimarrà pericolosamente incompleta».

La domanda, insomma, è una soltanto: quante altre vite dovranno bruciarsi nella miccia degli algoritmi prima che le società siano chiamate a rispondere delle proprie scelte?

Potrebbero interessarti
Segnala su Whatsapp