

Il linguaggio segreto dell’estrema destra online
Parole in codice, hashtag, emoji e ironia. Le strategie utilizzate per veicolare idee estremiste sui social e aggirare le restrizioni delle piattaforme
La versione inglese di questo articolo è disponibile a questo link.
Probabilmente, leggendo la parola “CAFE”, la maggior parte delle persone penserebbe alla bevanda scura solitamente servita in tazza. Nel gergo di alcune frange fasciste sui social, però, quelle quattro lettere assumono un significato del tutto diverso: in spagnolo sono usate come acronimo di “Camarada Arriba Falange Española” (“Camerata, viva la Falange spagnola”), uno slogan che richiama la necessità di cancellare il nemico.
Esistono anche termini usati per riferirsi ad Adolf Hitler (come “il pittore austriaco”), Benito Mussolini (“il mascellone”) e altri ancora per sostenere il nazismo o negare l’Olocausto. Le parole in codice sono solo una delle strategie impiegate dagli utenti che condividono questi contenuti per aggirare le restrizioni delle piattaforme e diffondere i propri messaggi, insieme all’abuso del linguaggio ironico per veicolare idee estremiste mascherate da umorismo.
Queste tattiche rappresentano una sfida senza precedenti per le piattaforme. Fonti accademiche ed esperti consultati da Maldita.es e Facta riconoscono che tali contenuti sono difficili da individuare e moderare per i social network sui quali vengono diffusi. Alcune delle raccomandazioni degli esperti comprendono l’addestramento dei sistemi di intelligenza artificiale per identificare in modo automatico i contenuti inappropriati, oppure l’inserimento di link a pagine esterne con informazioni affidabili che gli utenti possano verificare. Altri, come l’UNESCO, puntano anche sull’educazione di insegnanti e studenti, per far sì che tutti conoscano le conseguenze di questi regimi sanguinari e comprendano l’importanza della sensibilizzazione sull’uso dei social media.


Questo articolo è il secondo di un’indagine internazionale condotta da Maldita.es (Spagna) e Facta (Italia). Il progetto esplora brevemente come la propaganda fascista e la disinformazione si siano adattate al linguaggio dei social media e le strategie che utilizzano per eludere le restrizioni delle piattaforme e garantire che i contenuti raggiungano un pubblico più giovane e più ampio.
Questa indagine è stata resa possibile grazie al sostegno del Journalismfund Europe.

Le tattiche nascoste per aggirare le restrizioni delle piattaforme
«L’attività dell’estrema destra sui social media è piena di codici e segnali visivi», spiega uno studio del 2021 sul linguaggio online dei gruppi estremisti. Tra questi si individuano elementi cifrati (come frasi, numeri o simboli), algospeak (la modifica di parole chiave sostituendo numeri alle vocali), hashtag ed emoji. La Foundation for Combating Antisemitism (FCAS), che ha osservato messaggi antisemiti diffusi tramite questo linguaggio nascosto, sottolinea che, sebbene possano sembrare innocui, tali codici consentono alle ideologie estremiste «di diffondersi negli spazi pubblici senza essere espresse apertamente».
Il discorso antisemita – cioè il pregiudizio o l’odio contro il popolo ebraico, alla base dell’Olocausto – nel contesto digitale utilizza numeri come 1488, che secondo la FCAS rimandano sia a uno slogan suprematista bianco sulla protezione dei bambini bianchi (le cosiddette “quattordici parole”) sia al saluto tedesco Heil Hitler (poiché la “h” è l’ottava lettera dell’alfabeto). Espressioni come «Have a totally joyful day» (in italiano, “abbi una giornata completamente gioiosa”) corrispondono all’acronimo TJD, che in realtà significa “Total Jewish Death” (“Morte totale agli ebrei”). L’organizzazione spiega che gli estremisti usano questo formato per attaccare diversi gruppi minoritari: ogni variazione mantiene la stessa struttura ma cambia il bersaglio. Per negare l’Olocausto, in spagnolo si usano termini come “Holocuento”, “Holoengaño” o “Ana Fraude”, quest’ultimo riferito ad Anna Frank, la ragazza ebrea tedesca vittima dell’Olocausto nota per il suo diario.
Esistono anche diversi modi per parlare di Adolf Hitler senza nominarlo direttamente nella propaganda neonazista online. Alcuni esempi sono “il pittore austriaco” (poiché il Führer si dilettava nella pittura, ma tra il 1907 e il 1908 fu respinto per due volte dall’Accademia delle Belle Arti di Vienna), «i baffi», «zio A» o le sue iniziali AH. Vale la pena segnalare anche l’hashtag #AHTR, ovvero «Adolf Hitler was right» (“Adolf Hitler aveva ragione”).

In Spagna, l’acronimo CAFE è un noto slogan falangista (esibito anche nell’ufficio di un’ex deputata di Vox al Parlamento andaluso), e sono piuttosto popolari anche abbreviazioni come Æ (che significa “Arriba España”, “Viva la Spagna”, altro motto falangista) o FF, usato per indicare Franco Friday (“il venerdì di Franco”), un’espressione di origine incerta con cui si commemora Francisco Franco una volta a settimana. Il dittatore spagnolo viene talvolta indicato anche come «el caudillo» o «generalissimo degli eserciti di terra, mare e aria».

Allo stesso modo, in Italia Benito Mussolini viene citato con vari soprannomi, talvolta affettuosi, talvolta ironici. Alcuni esempi: LVI, Benny, Mascellone, Pelatone, Gran Babbo, Er puzzone e Crapùn (“testone”, in lombardo).
L’uso di queste parole non è limitato a Internet: c’è anche chi ci guadagna. Esiste, ad esempio, un negozio falangista che vende portachiavi, toppe e spille con le iniziali CAFE (“Camarada Arriba Falange Española”). A Predappio, città natale di Mussolini e meta annuale di rievocazioni nostalgiche, ci sono due negozi di souvenir, “Predappio Tricolore” e “Ferlandia”, che vendono gadget fascisti come anelli, accendini, busti, bandiere, magliette e altro ancora. Entrambi i negozi dispongono anche di store online.

Oltre ai codici alfanumerici o ai termini cifrati, vengono utilizzate anche le emoji. Nel discorso antisemita, gli ebrei o i sionisti vengono spesso rappresentati come animali (🐀, 🐍, 🐷, 🐙). In questo modo, spiega la FCAS, vengono riciclate immagini disumanizzanti già usate nella propaganda nazista. Un altro animale impiegato per alludere al nazismo o al franchismo senza mostrare simboli vietati dalle piattaforme è l’aquila (🦅), presente sulla bandiera spagnola durante la dittatura e associata anche alla svastica (nota come Reichsadler o “aquila imperiale tedesca”). La mano aperta (✋) viene usata per rappresentare il “saluto romano“, gesto legato ai movimenti fascisti, mentre i fulmini doppi o tripli (⚡️⚡️⚡️) rimandano alle SS, l’organizzazione fondata da Hitler nel 1925 per proteggere i vertici del partito nazista e garantire la sicurezza durante il regime. Vengono inoltre usati i simboli ᛋᛋ, che corrispondono al distintivo delle SS, e 卐, la svastica, croce uncinata adottata come simbolo del partito nazista nel 1920.
Queste tecniche possono essere riassunte nel concetto di “dog whistle” (“fischietto per cani”). Proprio come lo strumento utilizzato per addestrare i cani tramite ultrasuoni impercettibili (o quasi) all’orecchio umano, questa tattica di propaganda politica mira a comunicare con un gruppo ristretto di seguaci attraverso un linguaggio in codice, comprensibile solo all’interno del gruppo stesso ma praticamente incomprensibile dall’esterno. L’espressione si riferisce quindi a messaggi codificati che viaggiano su un doppio livello, politico e linguistico: innocui e vaghi per chi non ne conosce il significato reale, ma ricchi di significato per chi è in grado di decifrarli.
«I dog whistle vengono usati per veicolare concetti come antisemitismo, segregazione razziale o deportazioni violente di persone, che altrimenti sarebbero inaccettabili» spiega a Facta il giornalista ed esperto di politica e teorie del complotto Leonardo Bianchi. «È quindi importante che anche il grande pubblico sia in grado di decifrarli, e in questo il lavoro di divulgazione e analisi giornalistica è fondamentale». Secondo Bianchi, il rischio è che i dog whistle si normalizzino al punto da perdere la loro natura cifrata, come è già accaduto con espressioni quali “sostituzione etnica” o “remigrazione”, ormai entrate nel linguaggio politico comune.
L’UNESCO spiega che esistono anche altre tattiche per aggirare la regolamentazione delle piattaforme, tra cui: l’offuscamento ortografico, ossia errori di ortografia intenzionali, sostituzioni di caratteri, uso di omografi, spazi o punteggiatura aggiuntiva; il signposting, ovvero post apparentemente innocui che contengono link a piattaforme marginali dove la moderazione è più debole e il contenuto può essere più esplicito; la multimodalità, cioè l’uso combinato di audio, immagini e testo, più difficile da analizzare rispetto ai contenuti solo testuali e il reframing, che consiste nel presentare il discorso d’odio come libertà di espressione o come genuina curiosità. «Questa strategia, a volte indicata con l’acronimo JAQ-ing (just asking questions, “sto solo facendo domande”), non viola di per sé il diritto alla libera espressione», spiega l’UNESCO, «ma sfrutta la tutela di quel diritto per creare una “plausible deniability”, una negazione credibile delle intenzioni, producendo una zona grigia in cui i sistemi di moderazione risultano meno efficaci».
Quando l’estremismo passa dai meme
La propaganda online ha imparato a usare i meme (immagini o video accompagnati da testo, facilmente condivisibili sui social) come strumenti di un discorso più ampio, sfruttando la cultura pop per trasmettere messaggi d’odio senza esporsi alle critiche. Come spiega lo studio “Far right memes: undermining and far from recognizable”, la propaganda fascista ha integrato i meme per adattarsi al linguaggio dei social network e raggiungere i giovani, tra i quali «il messaggio semplificato dei meme può risvegliare l’interesse per l’ideologia di estrema destra».
Questi contenuti, che tendono a circolare prima all’interno di cerchie chiuse di estrema destra per poi diffondersi in modo più ampio e capillare, ripetono simboli legati a tali movimenti. Un post su Facebook, ad esempio, condivide un meme di Hitler in cui compare anche una svastica, contribuendo alla sua diffusione tra gli utenti. Il tutto, però, in modo “umoristico” e sottilmente codificato, offrendo agli utenti una scappatoia e una negazione, poiché possono sempre affermare che “stava solo scherzando”.
Un altro esempio è un meme condiviso su X (ex Twitter), con quasi 80 mila visualizzazioni, in cui un padre dice al figlio: «Quest’anno dobbiamo sostenere Franco fino alla morte». Il bambino crede che si riferisca a Franco Mastantuono, calciatore argentino diciottenne che ha firmato con il Real Madrid nel 2025 – ma in realtà il meme è usato per diffondere messaggi a favore di Francisco Franco sui social.

Questo uso strumentale del linguaggio ironico è estremamente pericoloso, perché tende a confondere sempre più i confini tra umorismo e disinformazione, fino a fonderli in un unico, potente strumento. È ciò che in gergo viene definito trolling – o trollaggio – ovvero l’attitudine a interagire online con messaggi ironici e provocatori, promuovendo posizioni estreme ma senza assumersi la responsabilità di farlo apertamente. È una strana terra di mezzo tra umorismo, discorso d’odio e disinformazione che non è affatto un incidente comunicativo, ma una vera e propria strategia teorizzata nei minimi dettagli.
Il metodo è esplicitamente rivendicato e caldeggiato da uno dei principali animatori dell’estrema destra internazionale, Andrew Anglin, un neonazista statunitense che nel 2013 ha fondato il sito The Daily Stormer (titolo che è un omaggio al settimanale nazista Der Stürmer). In una guida scritta e autopubblicata nel 2016, Anglin mette nero su bianco che «quando si usano insulti razzisti, lo si dovrebbe fare con aria semischerzosa, come quando si fa una battuta razzista di cui tutti ridono perché è vera. Il tono dovrebbe essere leggero. La maggior parte delle persone non si sente a suo agio con materiale che appare come puro odio al vetriolo, senza l’ombra di ironia. Il lettore profano non dovrebbe essere in grado di dire se stiamo scherzando o no». L’obiettivo finale, chiosava Anglin, è quello di promuovere una forma di «nazismo non ironico mascherato da nazismo ironico».
L’espressione massima di questa filosofia è stata proprio un meme, chiamato Pepe the Frog, una rana antropomorfa che per diversi anni è stata la mascotte ufficiale dell’estrema destra statunitense. Nato come protagonista di una striscia a fumetti, Pepe è dapprima diventato un meme piuttosto innocuo, ripreso anche da alcune celebrità come le cantanti Katy Perry e Nicki Minaj. Attorno al 2015, però, sono iniziate a circolare immagini della rana in divisa della SS, associata a simboli nazisti e accompagnata da slogan antisemiti e negazionisti dell’Olocausto. Con il tempo, il meme è diventato irrimediabilmente associato alla figura di Donald Trump, che nel 2016 retwittò un’immagine di sé stesso con le fattezze della rana antropomorfa, dando dunque legittimazione politica alla versione estremista del meme. Al tempo i principali quotidiani statunitensi e la candidata democratica Hillary Clinton parlarono del meme, sottolineando la pericolosità di dare adito a una propaganda tanto estremista e pericolosa. Il futuro presidente degli Stati Uniti, da par suo, spiegò che si trattava solo di un meme, di uno scherzo.
Secondo l’analisi “Far right memes: undermining and far from recognizable” è difficile attribuire effetti diretti all’uso di un singolo meme. Tuttavia, lo studio sostiene che l’impiego di questi strumenti da parte dell’estrema destra contribuisce a una serie di effetti indiretti o graduali, come la normalizzazione delle ideologie estremiste, la formazione di gruppi e identità, e l’ispirazione per azioni radicali.
Le piattaforme e la moderazione dei contenuti
Come hanno dimostrato studi e ricerche, gli algoritmi delle piattaforme social contribuiscono alla diffusione incontrollata di disinformazione propagandistica e teorie del complotto, monetizzandole, e promuovono attivamente l’odio e gli attori politici estremisti.
Meta, ad esempio, è stata criticata per essere stata eccessivamente permissiva nei confronti dei contenuti razzisti mascherati da umorismo, lasciati liberi di proliferare perché stimolavano il coinvolgimento degli utenti. Inoltre, un’analisi dell’Institute for Strategic Dialogue (ISD) nel 2020 aveva dimostrato come l’algoritmo di Facebook (di proprietà di Meta) abbia promosso attivamente contenuti negazionisti dell’Olocausto. Digitando la parola “Olocausto” nella funzione di ricerca di Facebook venivano suggerite pagine negazioniste, e l’Istituto ha rintracciato almeno 36 gruppi Facebook, con un totale di oltre 360 mila follower, specificamente dedicati al negazionismo dell’Olocausto.
Dopo la vittoria di Trump alle elezioni statunitensi di novembre 2024 Meta ha comunicato l’allentamento delle sue politiche di moderazione di contenuti che riguardano tematiche come questioni di genere e immigrazione, consentendo ora, ad esempio, di definire le persone trans come “malate di mente”.
Anche TikTok ha permesso la libera diffusione di messaggi neofascisti. Secondo un altro rapporto dell’ISD, sulla piattaforma neonazisti e suprematisti bianchi hanno condiviso propaganda legata a Hitler e cercando di reclutare nuovi membri. Centinaia di account estremisti su TikTok hanno pubblicato video che promuovono la negazione dell’Olocausto e la glorificazione di Hitler e della Germania nazista, suggerendo che l’ideologia nazista sia una soluzione ai problemi moderni, come la presunta invasione dei Paesi occidentali da parte dei migranti. I ricercatori hanno scoperto che l’algoritmo della piattaforma ha promosso questi contenuti anche tra i nuovi utenti, spesso giovani. In precedenza, anche il Global Network on Extremism and Technology aveva riferito che l’algoritmo di TikTok stava promuovendo l’apologia dell’ideologia fascista.
Per moderare i contenuti le piattaforme si avvalgono di grandi team di lavoratori, solitamente basati nei Paesi del “Sud globale” con costi di manodopera inferiori, e di software di filtraggio automatico, soprattutto prima della pubblicazione. In linea di principio, gli interventi di moderazione si basano su linee guida e standard della comunità pubbliche che stabiliscono ciò che gli utenti possono o non possono pubblicare.
L’app di messaggistica Telegram, invece, su cui spesso si riuniscono gruppi di neofascisti, fin dall’inizio si è differenziata per la sua ferma posizione contro qualsiasi tentativo di “censura” e il suo minimo sforzo nel moderare le interazioni tra utenti. Telegram è un’app disegnata per mettere in comunicazione le persone attraverso gruppi e canali – modalità che semplificano la costruzione di comunità – e mette inoltre a disposizione degli utenti una serie di programmi automatizzati chiamati bot, che permettono di fluidificare le interazioni all’interno dei gruppi.
Nel tempo, X ha sviluppato e affinato un algoritmo che premia i contenuti polarizzanti e le narrazioni xenofobe, ricompensando i creator più efficaci attraverso un sistema di monetizzazione. Entrambe le piattaforme, comunque, hanno da tempo esplicitato l’intenzione di voler offrire ai propri utenti spazi di discussione “liberi” e privi di censura. Un altro modo per dire X e Telegram sono attualmente spazi sicuri per chi diffonde disinformazione e discorsi d’odio. O per chi, come nel caso che stiamo esaminando, volesse riportare in auge figure politiche di un passato tragico.
Anche X ha dei problemi con la moderazione dei contenuti d’odio. Da quando Elon Musk ha acquistato X per 44 miliardi di dollari nel settembre 2023, sono state prese una serie di azioni che hanno fortemente depotenziato la lotta alle notizie false e al contrasto dei discorsi di odio. Con l’arrivo del CEO di Tesla e SpaceX, i team di moderazione dei contenuti della piattaforma sono stati infatti ridotti drasticamente, disattivati strumenti per segnalare disinformazione politica ed è stato limitato l’accesso ai dati della piattaforma per effettuare studi sulla disinformazione. C’è stata invece l’implementazione di un sistema di contrasto alla disinformazione dal basso, detto “Community Notes”, che però diverse inchieste e analisi indipendenti hanno dimostrato essere un fallimento.
Intanto, un gran numero di account di attivisti di destra e teorici della cospirazione sono stati riammessi nella piattaforma da Musk, da tempo divenuto megafono dell’estrema destra globale. Si tratta di persone bannate prima dell’arrivo del miliardario per aver violato le vecchie policy di moderazione contro i discorsi di odio e la disinformazione di Twitter. Come il noto complottista statunitense di estrema destra Alex Jones, condannato a pagare un risarcimento miliardario ai familiari delle vittime della strage del 2012 alla scuola elementare Sandy Hook di Newtown, in Connecticut, per aver dichiarato che quanto accaduto nella scuola era una messinscena. Con la riammissione su X, Jones è potuto tornare a una nuova vita online, raggiungendo con i suoi contenuti un pubblico sempre più ampio. Queste azioni e decisioni, secondo diverse ricerche su X, hanno portato sulla piattaforma a un aumento di discorsi d’odio, di notizie false e teorie cospirative connessi in particolare a posizioni politiche di estrema destra.
A inizio del 2025 la Commissione europea ha chiesto a X di consegnare i documenti interni sui suoi algoritmi per verificare se ci siano delle manipolazioni nei sistemi interni alla piattaforma per dare ai post e ai politici di estrema destra maggiore visibilità rispetto ad altri gruppi politici. È stata aperta un’indagine sul social media di Elon Musk da parte dell’unità anticrimine informatico della Procura di Parigi, dopo aver ricevuto una segnalazione da parte del deputato francese Eric Bothorel, che ha denunciato una distorsione negli algoritmi di raccomandazione della piattaforma. «Ci sono diversi indizi che indicano che Elon Musk sta organizzando e dando priorità alle informazioni favorevoli all’ideologia che difende, e che sta distorcendo il flusso di informazioni» nel suo social media, ha dichiarato Bothorel.
Addestrare l’intelligenza artificiale e fornire agli utenti l’accesso a fonti affidabili
In generale, queste piattaforme non prevedono divieti espliciti per questo tipo di contenuti nei loro regolamenti, ma limitano i post che promuovono l’odio. In altre parole, non vengono rimossi post che menzionano Hitler in un contesto storico o accademico, ma vengono eliminati quelli che promuovono l’antisemitismo o l’ideologia nazista.
Lo studio “Digital Whistles for Dogs: The New Online Language of Extremism” sostiene che i processi di identificazione dei contenuti «non sono ancora abbastanza efficaci per prevenire la diffusione preventiva di post d’odio», e che quindi le piattaforme «continuano a fare affidamento sulle segnalazioni manuali per rimuovere ciò che è già stato pubblicato». La moderazione è ulteriormente complicata nel caso dei meme, poiché «vengono presentati in forma ambigua o codificata», stando all’analisi “Far right memes: undermining and far from recognizable”. Anche quando l’intento discriminatorio è evidente, «tutelare gli utenti è difficile perché intenzioni ed effetti sono difficili da dimostrare».
Una delle raccomandazioni dei ricercatori dell’analisi “Digital Whistles for Dogs: The New Online Language of Extremism” è addestrare i sistemi di intelligenza artificiale «usando ricercatori umani per etichettare i contenuti d’odio e creare un dataset più ampio» con cui confrontare tutti i post pubblicati. Ciò permetterebbe di individuare automaticamente i contenuti inappropriati in violazione degli standard comunitari.
Nel suo studio sul negazionismo dell’Olocausto sui social, l’UNESCO raccomanda di inserire etichette di fact-checking che rimandino a fonti accurate e affidabili. TikTok ha già iniziato a implementare parzialmente questo sistema: non consente contenuti che neghino o minimizzino eventi storici ben documentati, come l’Olocausto. Infatti, cercando “Hitler” o “Nazi” nel motore interno, compare un messaggio che invita a «consultare fonti affidabili per prevenire la diffusione dell’odio e della disinformazione», insieme a un link informativo sui “Fatti sull’Olocausto”.

Tuttavia, non accade lo stesso cercando “Francisco Franco” o “franchismo”, dove si trovano contenuti con immagini del dittatore, anche con migliaia di visualizzazioni. Secondo Kye Allen, ricercatore dell’Università di Oxford, uno dei limiti della moderazione è che non vengono applicati gli stessi processi di identificazione e controllo nelle diverse lingue.
Nel 2020, per esempio, BuzzFeed segnalò che Facebook faticava a contrastare la disinformazione sul coronavirus nei post non in inglese. Un altro esempio: cercando “Kalergi Plan” (la teoria del complotto secondo cui le élite internazionali vorrebbero «eliminare la razza bianca»), TikTok non mostra risultati ma un avviso: «Questa frase potrebbe essere associata a comportamenti d’odio». Se però si cerca in spagnolo, invertendo l’ordine delle parole (“Plan Kalergi”), compaiono sei video che discutono la teoria.

Un’ulteriore raccomandazione dell’UNESCO è investire nella formazione dei moderatori sui temi del negazionismo, della distorsione dell’Olocausto e dell’antisemitismo. Allen concorda che i moderatori di piattaforme come TikTok non sempre riconoscono riferimenti storici specifici. Un esempio, osserva, è il contenuto commemorativo della Divisione Blu, i soldati spagnoli che combatterono al fianco di Hitler durante la Seconda guerra mondiale.
Maldita.es ha riscontrato che, in generale, le piattaforme impongono più restrizioni ai contenuti che menzionano Hitler o la retorica nazista rispetto a quelli su altri dittatori o movimenti estremisti. Ad esempio, nelle chat di Telegram è possibile usare GIF (un formato di immagine utilizzato per creare brevi animazioni ripetitive da una sequenza di fotogrammi) di Franco e Mussolini, ma non esistono GIF di Hitler.

Come difendersi dalla propaganda mascherata
Comprendere cosa muove uno scherzo e chi sono le persone che ne ridono è uno dei pochi strumenti che abbiamo per difenderci da odio e disinformazione, soprattutto quella che vuole insinuarsi nelle nostre teste sfruttando il riflesso naturale della risata. Per questo motivo il primo livello di difesa contro la propaganda mascherata è il nostro spirito critico, una prerogativa da allenare ed esercitare costantemente su Internet.
Internet, in ogni caso, è uno strumento neutro e ciò significa che gli ambienti online non sono solo pieni di insidie, ma anche di possibili soluzioni. Data la loro natura estremamente codificata, infatti, i meme e gli altri contenuti di internet sono anche facilmente classificabili e le loro basi (ovvero la struttura iniziale da cui prendono forma le variazioni sul tema) liberamente consultabili sul web. A tal proposito vi consigliamo il sito web www.knowyourmeme.com, che dal 2007 raccoglie, classifica e spiega i fenomeni del web, così da renderli accessibili al grande pubblico. Una ricerca per parole chiave su questo sito potrà aiutarci a comprendere il significato e le intenzioni dietro a qualsiasi prodotto della viralità online e permetterci di reperire la chiave di volta per evitare di cadere vittime di una disinformazione più o meno volontaria.
Allo stesso modo, è importante essere sicuri di aver compreso a pieno il significato di un contenuto prima di condividerlo: non deve esserci alcuno spazio per l’interpretabilità. Se lo riteniamo necessario, dunque, possiamo tranquillamente ricorrere a una ricerca su Google o dedicare qualche minuto all’approfondimento dei comportamenti passati dell’utente che ha condiviso il contenuto. Potremo così scoprire se è parte di una comunità più ampia, se è solito pubblicare contenuti propagandistici ammantati di ironia, se i suoi post hanno molteplici livelli di lettura e a chi sono indirizzati. Perché la nostra arma più affilata, nel dubbio, è cercare di inserire ogni contenuto nel suo contesto più ampio.


