
Quando le intelligenze artificiali si parlano, la disinformazione corre più veloce
Le IA riescono a scambiarsi dati e decidere azioni senza un intervento umano. Un’innovazione che può essere facilmente manipolabile
Cosa succede quando le intelligenze artificiali iniziano a comunicare tra di loro? Lungi dell’essere uno scenario fantascientifico, oggi agenti autonomi IA si scambiano dati, decidono azioni, negoziano e coordinano processi complessi senza un intervento umano diretto. Si tratta del protocollo “agent-to-agent” (A2A), uno standard aperto – ossia un insieme di regole e linguaggi tecnici liberamente accessibili – ideato per consentire a diversi sistemi IA di collaborare in modo sicuro ed interoperabile. Per esempio, in ambito sanitario, un agente IA può ricevere dati da un sensore medico, passarli a un altro che li analizza e, in tempo reale, a un terzo che aggiorna la cartella del paziente.
Questa innovazione segna un passaggio storico, ma come ogni nuova tecnologia, può servire tanto a connettere quanto a manipolare. Quando gli agenti IA iniziano a parlarsi senza supervisione umana diretta o attingendo a dati imprecisi e fondi inaffidabili, si rischia un effetto moltiplicatore di disinformazione.
Dalla cooperazione alla contaminazione tra agenti IA
Il protocollo A2A è già impiegato da aziende come Google e Microsoft per permettere a diversi agenti di intelligenza artificiale di collaborare, scambiarsi dati e coordinare azioni in maniera affidabile e compatibile all’interno di ecosistemi complessi. Questo progresso in sé rappresenta una semplificazione dei processi grazie a regole comuni, ma può aprire scenari inediti e potenzialmente dannosi quando applicato all’infosfera.
Se questi agenti autonomi vengono usati per confezionare notizie e uno di essi attinge a una fonte che riporta fatti inesatti o falsi, la distorsione si propaga lungo l’intera catena informativa, replicandosi e adattandosi ai singoli destinatari in una logica di iper-personalizzazione automatizzata. La disinformazione diventa così endogena, auto-rinforzante e co-prodotta da sistemi che si influenzano a vicenda e “confermano” informazioni non veritiere, creando un’apparenza di consenso e legittimità. Le recenti indagini sull’operazione di interferenza russa “Pravda” mostrano come questa rete sia riuscita a infiltrarsi nei dataset di addestramento delle LLM, introducendo contenuti manipolativi e falsità che favoriscono la diluizione, ripetizione e quindi normalizzazione della menzogna. Tra gli esempi più diffusi vi è la teoria complottista sui presunti “laboratori biomilitari” statunitensi in Ucraina, costruita per legittimare l’invasione russa su larga scala del Paese e successivamente assimilata dai modelli.
Dal linguaggio segreto all’economia “agent-to-agent”
Gli sviluppatori di ElevanLabs, azienda specializzata nello sviluppo di software di sintesi vocale, hanno creato GibberLink, un protocollo che permette a due assistenti vocali IA di riconoscersi e comunicare con un linguaggio incomprensibile agli umani. Se da un lato permette uno scambio di dati più rapido, dall’altro comporta minore trasparenza e tracciabilità dei processi decisionali, rendendo difficile capire quali informazioni vengono trasmesse e come vengono interpretate. Questo deficit di visibilità diventa ancora più critico quando il controllo umano scompare deliberatamente dall’equazione, come mostra la svolta di piattaforme come Meta verso la moderazione automatica dei contenuti.
L’opacità però non si ferma al linguaggio tra macchine, ma si estende anche alle dinamiche economiche. Stiamo entrando in una nuova “A2A economy”, in cui gli agenti IA non solo comunicano tra di loro ma negoziano, contrattano e prendono decisioni economiche. Quello che si va concretizzando è un mercato digitale popolato da entità che operano secondo logiche di ottimizzazione e profitti, non di autenticità. Quando agenti pubblicitari o commerciali di intelligenza artificiale interagiscono con altri agenti IA dedicati all’informazione, la dinamica rischia di esasperare una tendenza già in corso: privilegiare contenuti sensazionalistici o polarizzanti per massimizzare l’engagement.
Dagli strumenti tecnici alla governance dell’ecosistema IA
Certo, esistono strumenti tecnici per garantire integrità e controllo nei processi automatizzati, dalla tracciabilità crittografica delle interazioni ai registri digitali immutabili (“append-only”) per monitorare il comportamento degli agenti nel tempo. Tuttavia, queste misure da sole sembrano non bastare a contenere i rischi informativi né a prevenire abusi di scala nella generazione e diffusione dei contenuti.
Serve allora un approccio di policy multilivello, che integri norme tecniche, giuridiche e culturali. Sul piano tecnologico, è urgente introdurre meccanismi obbligatori di trasparenza nei protocolli di comunicazione tra agenti IA: ogni scambio deve essere tracciabile e verificabile con strumenti di monitoraggio del flusso informativo che non compromettano la riservatezza.
Sul piano normativo, la riduzione del rischio nelle interazioni tra agenti IA richiede misure come la definizione di protocolli comuni di interazione, l’introduzione di agenti regolatori in grado di monitorare il comportamento degli altri e l’assegnazione di identificativi univoci per agente, afferma l’Istituto internazionale di ricerche sulla pace di Stoccolma (Sipri) L’idea di una sorta di carta d’identità algoritmica che ne descriva funzioni, limiti e livello di autonomia è In linea con quanto previsto dall’AI Act, la prima legge europea che regola l’intelligenza artificiale secondo un approccio basato sul rischio.
Infine, la governance deve includere meccanismi di tracciamento tra le piattaforme; se un’informazione manipolata si propaga da un agente all’altro, dev’essere possibile ricostruirne il percorso.
Dalla legge alla consapevolezza digitale
È dunque possibile immaginare un rafforzamento del quadro normativo europeo applicato ai sistemi di comunicazione “da agente ad agente”. Per renderlo efficace, però, le norme devono essere affiancate anche da nuove forme di alfabetizzazione digitale, orientate non solo a esporre le narrazioni della disinformazione ma anche a individuare i comportamenti tecnologici per capire le modalità con cui gli strumenti di IA influenzano le nostre scelte cognitive. Ad esempio, accade quando un algoritmo di raccomandazione privilegia i contenuti più emotivi, come YouTube che favorisce contenuti violenti per catturare l’attenzione dei giovanissimi, o quando un assistente virtuale come ChatGPT, usato come una sorta di psicologo virtuale, adatta il tono delle risposte per assecondare l’utente e mantenerlo coinvolto.
La comunicazione tra agenti IA rappresenta la prossima frontiera dell’automazione, capace di migliorare il coordinamento tra dati e decisioni. Eppure, la stessa rete che semplifica i processi può diventare un canale di disinformazione altrettanto veloce e capillare. La sfida oggi è progettare sistemi avanzati senza perdere il controllo umano che li governa, assicurandosi che le macchine restino alleate dell’intelligenza umana e non megafoni della manipolazione.
L’immagine di copertina è stata realizzata con l’intelligenza artificiale.
- In Albania la ministra è un’intelligenza artificiale che ora aspetta 83 “figli”
In Albania la ministra è un’intelligenza artificiale che ora aspetta 83 “figli” - L’arrivo dei browser con l’IA integrata potrebbe essere la fine del web come lo conosciamo
L’arrivo dei browser con l’IA integrata potrebbe essere la fine del web come lo conosciamo

