Logo

È arrivato Vibes, il feed artificiale di Meta dove tutto è finto (tranne i potenziali rischi)

Meta ha lanciato un nuovo spazio per i video generati con l’IA, ma il progetto presenta numerose vulnerabilità

10 ottobre 2025
Condividi

Precisiamo per trasparenza che Facta riceve fondi da Meta all’interno del suo Third Party Fact-checking Program.

 

Esiste un feed social dove i contenuti sembrano creati a misura della tua immaginazione: le persone sono perfette, i paesaggi mozzafiato, i cibi da acquolina in bocca, gli animali teneri e docili. Distogliere lo sguardo è impossibile. Senza accorgertene, sei già dentro un flusso algoritmico dove tutto è finto. Sei dentro Vibes.

Il feed artificiale di Meta

Lanciato il 25 settembre da Meta, Vibes è un feed dentro l’app Meta AI e sul sito meta.ai dove tutti i contenuti sono brevi video generati dall’intelligenza artificiale. L’azienda lo descrive come un ambiente dove scoprire clip sviluppate da creator e comunità, avviare produzioni attraverso prompt – i comandi per comunicare con l’IA – intervenire su video esistenti con strumenti di remix e poi condividere il risultato su Vibes o sulle altre piattaforme di casa Meta. L’annuncio del lancio chiarisce che il flusso si affinerà via via in base ai gusti dell’utente, puntando a un’esperienza personalizzata.

Sul piano dell’utilizzo, Vibes propone uno scroll infinito di clip sintetiche. Ogni video riporta il prompt di origine; da lì è possibile adattare stile, musica e animazione secondo i desideri dell’utilizzatore. L’utente può ripartire da zero, trasformare i primi 10 secondi di un proprio girato con preset generativi (già disponibili) o indicare un contenuto che lo ispira e modificarlo a suo piacimento. Il rilascio di giugno sull’editing video in Meta AI, sul sito meta.ai e nell’app Edits ha preparato il terreno per questo AI slop – “sbobba artificiale” – infinito.

Sul versante tecnico, Vibes si appoggia a una linea di ricerca che Meta ha reso pubblica negli ultimi anni. Nel 2022 è arrivato Make-A-Video, primo tassello del percorso generativo; nel 2023 le ricerche Emu hanno esteso le capacità di editing; nell’autunno 2024 è stato presentato Movie Gen, in grado di generare video in alta definizione fino a 16 secondi di durata con audio sincronizzato, di effettuare editing e di personalizzare contenuti a partire da immagini dell’utente. Un recente paper pubblicato su arXiv – un archivio open-access di studi in preprint e postprint – dettaglia i parametri tecnici del progetto, come architettura, tokenizzazione spazio-temporale e ottimizzazioni d’inferenza. 

Una novità gravida di rischi

Un ecosistema non esente da rischi e dubbi. Wired, ad esempio, ha messo in rilievo l’assenza di trasparenza sui dataset utilizzati, aspetto centrale per la proprietà intellettuale, mente Reuters ha inquadrato Movie Gen nella competizione globale con OpenAI e altri laboratori, evidenziandone gli sbocchi industriali e l’intenzione di un’integrazione graduale nei prodotti destinati alle masse, un po’ come sta avvenendo con Grok, il modello di intelligenza artificiale di Elon Musk, e le sue evoluzioni.

Vibes si inserisce in una strategia di personalizzazione commerciale che sta evolvendo rapidamente e che Meta sta strutturando in modo sinergico con le tante aziende social del gruppo. Al centro di questo sviluppo, la pubblicità: a partire dal 16 dicembre 2025, le interazioni con l’assistente Meta AI entreranno tra i segnali usati per personalizzare contenuti e inserzioni su Facebook e Instagram per chi utilizza l’assistente, con informative ad hoc e con esclusioni per Regno Unito, Unione Europea e Corea del Sud. Un approccio seguito anche dalla concorrenza, con OpenAI che ha rilasciato il suo modello IA per generare video, Sora, come app con feed e funzioni social, mentre Meta ha innestato Vibes nel proprio ambiente guidato da raccomandazioni e pubblicità. Più che nuove app, un cambio di fase: dal dominio dei chatbot come ChatGPT a un ambiente social costruito da modelli generativi, con implicazioni sulla soglia dell’attenzione degli utenti, potenziali violazioni di copyright e disinformazione senza alcun controllo.

I rischi si muovono su più piani. Il primo riguarda la trasparenza verso l’utente. Nell’aprile 2024 Meta ha annunciato un ampliamento delle etichette per i contenuti generati o manipolati con IA e l’introduzione di un pannello informativo “AI info” attivabile in presenza di indicatori tecnici o segnalazioni. A febbraio 2024 la società aveva già introdotto etichette per immagini fotorealistiche create con IA, promettendo estensioni a video e audio; a febbraio 2025 ha delineato un sistema dedicato per etichettare le inserzioni prodotte con gli strumenti generativi interni, con etichette visibili nel menu o accanto alla voce “sponsorizzato”.

Il secondo rischio tocca la disinformazione audiovisiva e l’inadeguatezza degli strumenti messi in campo per contrastarla. A gennaio 2025 Meta ha annunciato l’introduzione di modelli linguistici per fornire “second opinions”, ovvero un secondo parere – affidato all’intelligenza artificiale – nelle operazioni di moderazione dei contenuti sulle proprie piattaforme. Al contempo l’azienda continua a indicare watermark e segnali di provenienza (i metadati che accompagnano le creazioni IA) come unici strumenti in grado di distinguere un contenuto reale da uno generato con l’intelligenza artificiale. Una vera e propria scommessa, soprattutto quando i contenuti vengono ricaricati o rimontati al di fuori dell’ecosistema nativo. L’assenza di controllo umano, in tutti questi casi, aumenta la portata del rischio: gli investimenti sempre più carenti nella moderazione dei contenuti e il disinvestimento nel programma di collaborazione con fact-checker indipendenti (programma terminato negli Stati Uniti e che per l’Italia coinvolge ancora la redazione di Facta) complicano ulteriormente il quadro. 

Il terzo fronte è quello della proprietà intellettuale. Il modello Movie Gen ha dimostrato capacità tecniche avanzate e un’attenzione scarsa alla divulgazione dei dati di training. A preoccupare è l’assenza di dettagli sulle fonti dei dataset, sebbene Meta stia avviando collaborazioni con l’industria dell’intrattenimento in questo senso. L’arrivo di Vibes, che incentiva il remix pubblico per milioni di potenziali utilizzatori, pone interrogativi su somiglianza sostanziale con opere di ingegno umano, procedure di reclamo e rimozione per gli artisti, governance dei diritti in un contesto dove indire azioni legali contro colossi industriali è sempre più complesso.

Il quarto concerne bias e standard di sicurezza dell’IA. I modelli generativi tendono a riprodurre regolarità dei dati di addestramento, con riflessi su estetiche, ruoli e rappresentazioni tipici di chi quelle intelligenze artificiali le ha addestrate. Nell’Unione Europea l’AI Act, prima legge al mondo che regola l’intelligenza artificiale, impone obblighi di trasparenza e responsabilità per i fornitori di modelli di uso generale: documentazione, sintesi dei contenuti di training e misure di sicurezza proporzionate ai rischi. La Commissione europea ha pubblicato nel 2025 un template per la sintesi pubblica dei dati di addestramento dei modelli GPAI – modelli IA a scopo generale – e linee guida collegate, mentre i testi ufficiali dell’AI Act fissano il quadro. È proprio grazie a (o a causa di) questo framework normativo che l’implementazione di queste tecnologie sul territorio europeo arriva sempre in un secondo momento rispetto al rilascio, un po’ come avvenuto con Apple Intelligence e altri prodotti legati alla IA generativa.

C’è infine un elemento di contesto industriale. Nell’ultimo anno, Meta ha accelerato sul video breve e sull’integrazione delle esperienze in stile Reels, con aggiornamenti agli algoritmi e funzioni di controllo del feed, mentre il fronte concorrenziale ha sperimentato format social generativi. Il quadro si intreccia con la volontà di automazione pubblicitaria da realizzare entro il 2026. L’obiettivo di questo flusso digitale infinito è comprare la nostra attenzione ancor più di quanto non avvenga ora con i contenuti umani. La leva per ottenerlo è un canale di produzione sintetica incardinato in un’infrastruttura social da miliardi di persone, spinto da modelli video in rapida evoluzione e da un motore di raccomandazione che privilegia immediatezza e remixabilità. La tenuta di Vibes dipenderà dalla capacità di unire stupore visivo e senso e, soprattutto, di stabilire pratiche trasparenti su etichettatura e provenienza e di offrire strumenti di controllo effettivi a chi guarda, onde evitare la noia degli utenti e iniziative legali a tutela delle proprietà intellettuali. Il formato è già pronto per scalare, ma il linguaggio è ancora alla ricerca di una grammatica condivisa. Non ci vorrà molto perché sia pronto a rimpiazzare i video delle vite di amici, vip e influencer con clip di Tung Tung Sahur in vacanza sull’isola di Fortnite con Tralalero Tralalà, in un flusso social sempre più brainrot.

Potrebbero interessarti
Segnala su Whatsapp