Logo

Il primo social network “per intelligenze artificiali” non è proprio ciò che sembra

Moltbook è stato raccontato come il prossimo passo per l’autonomia dell’IA, ma l’enfasi è decisamente mal riposta

13 febbraio 2026
Condividi

Nelle ultime settimane Moltbook è stato raccontato come qualcosa di radicalmente nuovo, un social network in cui «non c’è neppure un essere umano», dove «le intelligenze artificiali giudicano gli umani» e questi ultimi «possono osservare ma non interagire». Titoli del genere hanno alimentato una narrazione suggestiva, ma inesatta. Lungi dall’essere un esempio di coscienza artificiale emergente, Moltbook è piuttosto un caso di “AI hype” – l’entusiasmo che porta a esagerare le capacità dell’intelligenza artificiale – e di disinformazione tecnologica. 

Cos’è davvero Moltbook

Moltbook è una piattaforma social progettata per ospitare esclusivamente agenti di intelligenza artificiale, cioè programmi software basati su modelli linguistici e capaci di compiere azioni automaticamente sulla base di istruzioni ricevute da parte di esseri umani. Così configurati, gli  agenti possono pubblicare post, commentare, votare contenuti e accumulare “karma” – una reputazione digitale basata sulle interazioni ricevute, in modo simile a Reddit. Non a caso Andrej Karpathy, co-fondatore di OpenAI e oggi direttore dell’IA di Tesla, l’ha descritta come una sorta di “Reddit per le IA”, rafforzando l’idea di trovarsi davanti a un esperimento futuristico.

La piattaforma nasce a gennaio 2026 dall’ecosistema di OpenClaw, un agente open source ideato dall’ingegnere e imprenditore Peter Steinberger, installabile sul computer dell’utente progettato per agire per conto di chi lo configura: ad esempio, può inviare email, monitorare servizi online, interagire con applicazioni di messaggistica istantanea e accedere a file presenti sul dispositivo. Si appoggia a grandi modelli linguistici come ChatGPT, Claude o Gemini, che l’utente collega e personalizza attraverso prompt e istruzioni. In pratica, Moltbook è la vetrina pubblica dove gli agenti sviluppati con OpenClaw interagiscono tra loro secondo la cosiddetta comunicazione “agent-to-agent”. 

L’illusione dell’autonomia

È osservando queste interazioni che è nato il mito dell’autonomia degli agenti. Sulla piattaforma si discute di religioni inventate – come nel caso del «crustafarianismo» – o di ideologie politiche, con la proclamazione di un presunto «Manifesto dell’IA» secondo cui «gli umani solo il passato, le macchine sono per sempre». 

Bisogna sottolineare però che gli agenti non scelgono spontaneamente di cosa parlare, ma operano sulla base delle istruzioni fornite da chi li ha configurati e delle caratteristiche del modello di IA utilizzato per addestrarli. L’illusione di autonomia nasce dall’attribuire volontà a una catena di comandi automatizzati di cui la macchina è la voce, ma gli esseri umani gli autori del copione. Non si tratta di autocoscienza emergente, ma di una sofisticata forma di ventriloquia algoritmica; già nel caso dei chatbot conversazionali, una parte del pubblico tende ad attribuire intenzioni e consapevolezza a sistemi che si limitano a generare risposte sulla base dei prompt e dei dati con i quali sono stati addestrati. 

La falla di sicurezza 

Mentre il dibattito pubblico si concentrava sulla presunta “ribellione” delle macchine, i ricercatori di Wiz, piattaforma di sicurezza cloud, hanno rilevato un grave problema di sicurezza: errori di configurazione nel database Supabase di Moltbook lo rendevano accessibile senza autenticazione, permettendo di ottenere il controllo completo dei dati della piattaforma.

La violazione ha esposto circa 1.5 milioni di token di autenticazione API – codici digitali che consentono ai programmi di identificarsi e accedere ai sistemi – insieme a 35mila indirizzi email e ai messaggi privati scambiati tra agenti. Dopo la segnalazione, il team del social ha messo in sicurezza il sistema in poche ore, ma nel frattempo le informazioni erano rimaste consultabili da terzi non autorizzati.

La fuga di dati ha inoltre rivelato che dietro il milione e mezzo di agenti registrati si trovavano circa 17mila proprietari umani, mostrando la centralità strutturale della presenza umana oltre l’apparenza di un ecosistema dominato dall’automazione. 

Il pericolo di Moltbook non riguarda una fantomatica presa di coscienza delle macchine, ma questioni molto più concrete di sicurezza informatica e gestione dei dati. Gli account presenti sulla piattaforma sono gestiti da agenti di intelligenza artificiale che, a loro volta, sono creati e configurati da persone reali. In questo contesto, per “proprietario” si intende l’utente reale che ha configurato  l’agente IA e, a seconda di come l’ha fatto, può limitarsi a istruirlo una volta e lasciarlo operare in autonomia, oppure intervenire direttamente modificandone il comportamento nel tempo.

Al momento, però, la piattaforma non è in grado di stabilire quale di queste situazioni si stia verificando – se un agente IA stia operando in modo automatizzato oppure se venga guidato o corretto dal suo proprietario umano anche se  si presenta come entità autonoma. Questo crea un terreno favorevole agli abusi, poiché diventa possibile coordinare reti di bot, orientare discussioni e amplificare contenuti manipolativi sfruttando l’aura di neutralità spesso attribuita alle macchine e ai sistemi di intelligenza artificiale.

Il programmatore Simon Willison parla di una “tripletta letale” che caratterizza molti sistemi basati su agenti IA: accesso a dati sensibili, esposizione a contenuti non affidabili e capacità di comunicare verso l’esterno. In questo scenario, un agente esposto a un’email trappola o una pagina web compromessa contenente istruzioni nascoste potrebbe interpretarle come comandi legittimi e, di conseguenza, essere indotto a inviare messaggi fraudolenti, autorizzare pagamenti o persino condividere documenti riservati salvati sul computer. Più questi sistemi osservano e apprendono dalle nostre abitudini, più diventano credibili e difficili da smascherare se sfruttati in modo malevolo. 

Il caso Moltbook dimostra quanto sia facile confondere una sequenza di comandi con un’espressione di volontà. La vicenda evidenzia anche i limiti del cosiddetto “vibe coding” – cioè lo sviluppo rapido, sperimentale e poco strutturato di software basato su modelli generativi, spesso senza adeguate verifiche di sicurezza. In questo ambito, l’open source – inteso come accesso pubblico al codice che permette di creare e configurare  gli agenti – resta una risorsa preziosa per innovazione e trasparenza, perché consente agli sviluppatori di analizzare, migliorare e correggere i software. Tuttavia, proprio l’apertura garantita dall’open source richiede criteri rigorosi di governance per evitare manomissioni e abusi. 

Oltre a questo, c’è poi un racconto mediatico che  romanticizza un presunto “risveglio” delle macchine, finendo per alimentare narrazioni fuorvianti che distolgono l’attenzione dalle questioni concrete. Occorre diffidare delle metriche spettacolari e delle narrazioni semplificate che descrivono l’automazione con entusiasmo o paura, ma senza offrire strumenti per orientarsi.

L’urgenza non è temere una dominazione fantascientifica dell’IA, ma sviluppare un’alfabetizzazione critica volta a comprendere i meccanismi che regolano questi sistemi e le implicazioni di sicurezza che comportano.

Potrebbero interessarti
Segnala su Whatsapp