Logo

Perché NON abbiamo limitato il video di Barbero su Facebook

Il programma di fact-checking di Meta, di cui siamo gli unici membri italiani oltre Open, non prevede la possibiità di etichettare post con opinioni

26 gennaio 2026
Condividi

Nelle ultime ore il dibattito politico e mediatico si è concentrato su un video realizzato il 18 gennaio scorso dallo storico Alessandro Barbero, ex docente universitario di Storia medievale e oggi tra i divulgatori più seguiti nel panorama italiano. Nel filmato, Barbero ricostruisce in forma sintetica le motivazioni che lo hanno portato a orientarsi per il “no” al referendum costituzionale sulla giustizia in programma il 22 e 23 marzo, offrendo una lettura personale e argomentata dei punti in discussione.

A far discutere, più che il contenuto del video, è stata però la decisione di limitare la sua visibilità su Facebook, in seguito all’intervento della testata giornalistica Open che lo ha etichettato come un contenuto falso. Ciò è stato possibile perché Open è una delle due organizzazioni di fact-checking indipendenti selezionate da Meta in Italia per partecipare al Third Party Fact-checking Program (3PFC), il programma di collaborazione con i fact-checker per il contrasto alla diffusione di notizie false sui social network Facebook, Instagram e Threads.

L’unica altra testata che partecipa al programma per l’Italia è Facta e in questo articolo vorremmo raccontare perché abbiamo scelto di non limitare la visibilità del post di Alessandro Barbero.

Che cos’è successo con il video di Barbero

Il caso mediatico (e politico) attorno al video di Barbero è montato in seguito a un articolo comparso il 23 gennaio scorso sul Fatto Quotidiano e intitolato “‘È troppo virale’: oscurato da Meta il video di Barbero”. Il pezzo descrive una dinamica nota, seppur con qualche inesattezza: il video realizzato dallo storico compariva su Facebook insieme all’etichetta “Informazione falsa: esaminata da fact checkers di terze parti” e un link che rimandava a un articolo di Open intitolato “Referendum Giustizia, cosa dice davvero la riforma rispetto a quanto affermato da Barbero”.

Come avevamo spiegato in passato, è proprio così che funziona il programma delle terze parti di Meta: i testi, le immagini e i video pubblici presenti su Facebook possono essere classificati dai fact-checker come “falsi”, “parzialmente falsi”, “contesto mancante” (cioè presentati in maniera fuorviante) o “alterati”. Tali contenuti disinformativi possono essere individuati dai fact-checker in vari modi: sia tramite il monitoraggio attivo dei social media, che tramite le richieste di verifica inviate da utenti o feedback della community segnalati da Meta. 

Non esiste invece alcuna automazione che costringa il fact-checker ad analizzare i post virali, benché lo scopo esplicito del programma sia quello di «individuare e combattere contenuti virali che diffondono disinformazione». Insomma, i contenuti non vengono sottoposti ad analisi perché diventati virali, come lascia intendere l’articolo del Fatto Quotidiano (e come riportato in seguito da altre testate) ma perché sospettati di diffondere disinformazione.

Una volta che il contenuto viene individuato per la verifica, il fact-checker scrive un articolo con all’interno le fonti utilizzate per spiegare perché quel post contiene disinformazione. Questo articolo, poi, viene collegato al post analizzato nel modo descritto dal Fatto Quotidiano, ovvero con una mascherina in sovrimpressione che fornisce un link all’articolo di fact-checking e un breve testo che recita: «Informazioni false, contenuto controllato da fact-checking indipendenti».

Questo però non significa che il post venga censurato o rimosso. Il messaggio stesso contempla la possibilità di ignorare l’indicazione e procedere alla visualizzazione del contenuto.

Il contenuto infatti rimane online: chi vuole può continuare a vederlo, mentre gli utenti che vogliono sapere perché è falso possono leggere l’articolo di fact-checking allegato. La stessa Meta specifica che «i fact-checker non rimuovono contenuti, account o Pagine da Facebook. Rimuoviamo i contenuti quando violano i nostri Community Standard, che sono separati dal nostro programma di fact-checking».

Nel senso generale del programma si tratta di una precauzione molto utile. Pensiamo ad esempio a un post che invita gli utenti a bere biossido di cloro o che propone l’ivermectina come cura contro il cancro. Sono casi reali, post che abbiamo realmente incontrato su Facebook e che abbiamo etichettato come disinformazione nelle modalità appena elencate. Crediamo che sia importante per gli utenti, in particolar modo quelli meno preparati a navigare la Rete, fruire di ogni contenuto social avendo tutte le informazioni necessarie per difendersi da contenuti potenzialmente pericolosi. 

È importante sottolineare, infine, che non tutti i contenuti analizzati dall’organizzazione di fact-checking finiscono per diventare etichette su Facebook. Si tratta di una precisa scelta editoriale, che tiene conto della deontologia professionale e delle regole d’ingaggio previste da Meta. E arriviamo così al problema con la scelta di Open.

Il problema della scelta di Open

Il programma di fact-checking delle terze parti non permette di etichettare qualsiasi contenuto e presenta delle limitazioni, secondo regole pubblicamente disponibili. 

In base alle regole stabilite da Meta, il programma non prevede ad esempio la possibilità di verificare post con opinioni «che sostengono idee, traggono conclusioni basate sull’interpretazione di fatti e dati e comunicano al pubblico il pensiero dell’autore merito a un evento o un tema». Insomma, opinioni e idee sono escluse – al pari delle inserzioni di partiti, candidati ed esponenti politici.

Il video realizzato da Barbero rientra pienamente in questa fattispecie. Come hanno spiegato i colleghi di Pagella Politica in un dettagliato articolo di fact-checking, nel video lo storico «descrive correttamente molte caratteristiche del sistema attuale e della riforma, ma le conclusioni più allarmistiche, sul ritorno a un controllo politico della giustizia simile a quello di uno Stato autoritario, rientrano nel campo delle opinioni politiche e delle previsioni sugli effetti futuri della riforma, non in quello dei fatti verificabili oggi». Opinioni politiche, appunto, e in quanto tali a nostro avviso non inquadrabili nel 3PFCP.

È ovviamente possibile che un’opinione diventi veicolo di disinformazione, ma in questo caso Meta chiede ai fact-checker «di usare il buon senso per determinare se un contenuto è davvero un’opinione o un’informazione falsa mascherata come tale, valutandola nel modo più opportuno». Facta ha sempre interpretato tale indicazione nel modo più cauto possibile, etichettando le opinioni solo nel caso in cui queste mettessero direttamente in pericolo la salute o l’incolumità di persone o comunità.

Chiariamo infine due aspetti: c’è la possibilità di appellarsi alla decisione presa dai fact-checker compilando un apposito form. Inoltre l’azione applicata al contenuto è totalmente reversibile. Al momento in cui scriviamo, peraltro, non abbiamo trovato su Facebook post contenenti il video di Barbero a cui sia ancora applicata l’etichetta per limitarne la visibilità.

Potrebbero interessarti
Segnala su Whatsapp