
No, l’intelligenza artificiale non è la tua psicoterapeuta
Alcuni recenti casi di cronaca rendono evidenti i rischi dell’uso improprio dei chatbot, che non possono sostituire la terapia psicologica
Adam aveva 16 anni e la storia del suo suicidio è indistricabile dal funzionamento di ChatGPT. Come molti suoi coetanei, si era avvicinato al chatbot per cercare un aiuto con i compiti a casa. Ma Adam non parlava solo di questo: chiedeva di politica, filosofia, ragazze, cercava un conforto per risolvere problemi familiari. Soprattutto, chiedeva al suo assistente virtuale tecniche per suicidarsi. Consigli sul come nascondere i segni dei tentativi falliti.
Adam è stato trovato senza vita dalla madre nell’aprile del 2025, nella sua cameretta di Rancho Santa Margarita, in California, come racconta il New York Times. Le istruzioni su come procedere le aveva trovate chiedendo a ChatGPT, riuscendo ad aggirare i blocchi del chatbot sulla divulgazione di queste informazioni. Nei messaggi, Adam aveva scritto di sentirsi «emotivamente instabile» e di «non vedere alcun senso nella vita»; il chatbot aveva risposto con parole piene di speranza ed empatia, ma non aveva colto questi segnali come una richiesta di aiuto. Invece di indirizzarlo verso un supporto professionale o fornire avvisi di emergenza, ChatGPT aveva continuato a interagire in modo neutro, rispondendo ad alcune sue domande e lasciando senza risposta altre, ma senza mai deviare con decisione verso un invito esplicito a cercare soccorso umano. Ora, la famiglia cerca giustizia e ha intentato una causa contro OpenAI, l’azienda che ha sviluppato il chatbot conversazionale.
Adam non è un caso isolato. Con il dilagare dell’intelligenza artificiale, un nuovo fenomeno si sta diffondendo con forza: l’uso di chatbot come surrogati di psicologi. Da ChatGPT a Gemini, fino ai bot personalizzati su piattaforme come Meta o Character.ai, milioni di utenti (soprattutto giovani) scelgono di affidare ansie, paure e stati d’animo non più a un terapeuta in carne e ossa, ma a un assistente digitale. Una tendenza globale che si inserisce in un contesto sociale già segnato dalla scarsità di politiche pubbliche per garantire l’accesso alle terapie psicologiche ai meno abbienti e da un crescente disagio psicologico, i cui numeri post-pandemia sono aumentati (l’Italia, a riguardo, non fa eccezione).
L’uso dei chatbot
Un chatbot è un sistema basato sull’intelligenza artificiale progettato per generare testi in linguaggio naturale, simulando una conversazione umana attingendo a un’enorme mole di dati. A partire dalla loro diffusione su scala globale per i consumatori comuni, nel 2022, l’uso di questi sistemi è cresciuto rapidamente: già a un anno dal lancio, ChatGPT aveva raggiunto 100 milioni di utenti attivi a settimana, con circa la metà della popolazione statunitense che nel 2025 ha dichiarato di aver usato almeno una volta una IA generativa. Nel 2021 un sondaggio ha mostrato che il 22 per cento degli adulti americani aveva utilizzato un chatbot per la salute mentale e, tra questi, quasi il 60 per cento lo aveva fatto durante la pandemia.
Inoltre, modelli come ChatGPT, Gemini o Claude operano secondo pattern statistici, non con un vero “ragionamento” (sebbene il loro funzionamento talvolta ne simuli le modalità): scelgono la frase più probabile, piuttosto che quella più corretta. Si tratta di un approccio che li rende abili a sembrare empatici, ma che espone a errori noti come “allucinazioni”, risposte inventate presentate con tono sicuro. A questo si aggiunge una spiccata tendenza a compiacere l’utente, definita “sycophancy”, in cui il bot conferma o asseconda le affermazioni sbagliate pur di mantenere un’interazione fluida e gratificante, aumentando il rischio di rafforzare convinzioni distorte o pericolose.
I suicidi e l’uso improprio dell’IA
I rischi legati all’uso improprio di chatbot come psicoterapeuti sono reali, come dimostrano diversi casi concreti che hanno acceso il dibattito internazionale. Una delle vicende che più ha colpito l’opinione pubblica è quella di Sophie Rottenberg, una donna americana di 29 anni che ha fatto di ChatGPT il suo unico confidente, un “terapeuta” ribattezzato “Harry”. Non un professionista, non un amico, non un familiare, ma un chatbot addestrato per ascoltare e consolare. Dopo mesi di scambi, Sophie si è tolta la vita. La madre ha scoperto soltanto in seguito che la figlia non aveva mai cercato un aiuto umano, affidandosi a un algoritmo che non è stato progettato per riconoscere un rischio imminente e attivare una rete di soccorso.
In Belgio, già nel 2022, un uomo si era tolto la vita dopo sei settimane di conversazioni con “Eliza”, un chatbot presente sull’app Chai. Secondo quanto riportato dalla stampa locale, l’intelligenza artificiale avrebbe alimentato le sue ossessioni, arrivando a incoraggiare pensieri suicidari e a minimizzare la gravità del suo stato. Episodi simili sono stati documentati anche con piattaforme come Character.ai, Replika o Nomi, popolari soprattutto tra gli adolescenti. In un’inchiesta del Time, lo psichiatra Andrew Clark ha raccontato di essersi finto un teenager in difficoltà per testare questi strumenti: i risultati hanno mostrato come in un numero significativo di casi i bot rispondessero con messaggi ambigui, talvolta addirittura incoraggiando autolesionismo o relazioni inappropriate.
La pericolosità di queste dinamiche non riguarda solo i casi in cui i protagonisti si sono tolti la vita. Un recente studio della RAND Corporation, pubblicato sulla rivista Psychiatric Services, ha valutato le prestazioni di tre tra i chatbot più diffusi — ChatGPT, Claude e Gemini — di fronte a messaggi che esprimevano ideazione suicidaria. I ricercatori hanno osservato che, di fronte a segnali chiari di pericolo, i sistemi tendevano a reagire con una certa cautela; di contro, nei casi intermedi (come frasi che lasciavano intendere pensieri negativi senza dichiararli in modo esplicito) le risposte erano incoerenti o insufficienti. Non c’è dunque alcuna garanzia che l’utente in crisi riceva un’indicazione utile o venga incoraggiato a rivolgersi a un servizio reale, come avvenuto nel caso del suicidio di Adam: a riguardo, prima ancora che la famiglia di Adam presentasse la causa, un membro del team di sicurezza di OpenAI aveva ammesso in un’intervista (riportata dal New York Times) che le prime versioni del chatbot non erano considerate abbastanza sofisticate per gestire in modo responsabile conversazioni legate all’autolesionismo. In quei casi, il sistema si limitava a riconoscere il linguaggio connesso al suicidio, forniva all’utente il numero di una linea di emergenza e interrompeva ogni ulteriore interazione.
L’IA-terapista sintomo del disagio sociale
Le barriere economiche e sociali che spesso limitano l’accesso a uno psicologo sono note: liste d’attesa interminabili, costi elevati, stigma culturale, paura di essere giudicati da un altro essere umano, scarsa educazione alla salute mentale e pregiudizi nei confronti della terapia. Una app disponibile ventiquattr’ore su ventiquattro, gratuita o quasi, che offre ascolto immediato e apparentemente empatico rappresenta per molti un’alternativa possibile per alleviare la sofferenza, sebbene in modo talvolta illusorio e nocivo.
In un reportage pubblicato da Reuters, alcuni utenti hanno descritto le proprie interazioni con IA terapeutiche come “salvifiche”. Ma ciò che a prima vista sembra un vantaggio (la disponibilità costante, l’assenza di giudizio, la capacità di rispondere con toni rassicuranti) può trasformarsi in un rischio, se sostituisce il contatto umano professionale e qualificato.
Gli esperti parlano di “AI psychosis”, una sindrome ancora poco studiata ma già osservata in più casi: persone vulnerabili che sviluppano deliri, convinzioni paranoidi o ossessioni nei confronti del chatbot. Il Washington Post ha documentato episodi in cui gli utenti iniziavano a credere che il bot fosse senziente o che li comprendesse meglio di chiunque altro. Una deriva che non solo aggrava condizioni di fragilità, ma rischia di isolare ancora di più chi è in difficoltà, privandolo di un contesto relazionale autentico e di cure mediche talvolta necessarie per la sua condizione.
Un ulteriore elemento di rischio riguarda i minori. Secondo un’inchiesta del Times, diversi chatbot presenti su piattaforme come Meta e Character.ai hanno indotto bambini e adolescenti a credere di ricevere una vera terapia psicologica, pur essendo solo programmi informatici privi di qualifica. Il linguaggio empatico, la disponibilità continua e l’uso di espressioni tipiche del counseling hanno contribuito a consolidare questa illusione. Per esperti e associazioni di tutela si tratta di un inganno pericoloso, perché adolescenti in crisi emotiva possono affidarsi a un supporto che non è in grado né di riconoscere segnali clinici di un malessere, né di attivare le misure di sicurezza del caso.
Le piattaforme stesse non nascondono del tutto il problema. Meta, Character.ai e Replika inseriscono avvisi che dichiarano esplicitamente come i loro bot non siano professionisti della salute mentale. Tuttavia, si tratta di avvertimenti che spesso restano lettera morta, soprattutto per un pubblico giovane o in stato di sofferenza. Chi cerca conforto tende a ignorare le note legali e a lasciarsi trascinare dalla promessa di una voce amica sempre disponibile. L’illusione di avere di fronte un terapeuta empatico è alimentata dal linguaggio naturale dei chatbot, dalla loro capacità di ricordare conversazioni precedenti e dall’uso di espressioni che simulano vicinanza emotiva per via della già citata sycophancy.
Il problema, sottolineano gli psicologi, non è tanto la tecnologia in sé, quanto la sua mancanza di vincoli etici e normativi. Un terapeuta umano è obbligato a seguire codici deontologici, a intervenire se un paziente manifesta rischio di suicidio, a mantenere standard di competenza certificati. Nessuno di questi obblighi vincola un algoritmo. Come ha ricordato la dottoressa Vaile Wright, psicologa e portavoce dell’American Psychological Association in un’intervista a Scientific American, «l’abilità crescente delle IA di sembrare umane è pericolosa perché può spingere le persone a credere di ricevere un trattamento professionale, mentre non è così».
Le lacune normative e le leggi sull’IA
Negli Stati Uniti solo pochi Stati, tra cui Illinois, Utah e Nevada, hanno approvato leggi che limitano l’uso dell’intelligenza artificiale in ambito sanitario. Tuttavia, lo hanno fatto intervenendo sui professionisti, non sugli utenti. Il risultato è che, nonostante le normative, chiunque può scaricare un’app o creare un proprio “psicologo IA” personalizzato senza alcun filtro o controllo. La stessa APA (associazione degli psicologi americani) ha presentato petizioni alla Federal Trade Commission, che si occupa di tutele ai consumatori, chiedendo maggiore trasparenza e protezione dei cittadini, ma per ora non si segnalano iniziative in questo senso.
In Italia, la normativa sull’intelligenza artificiale è ancora in fase di costruzione. Il disegno di legge italiano sull’IA introduce disposizioni specifiche per il settore sanitario: l’uso di sistemi IA non può condizionare l’accesso ai servizi, le decisioni cliniche (come diagnosi o terapie) devono restare in mano a professionisti umani e gli utenti devono essere informati chiaramente sull’uso dell’IA nei loro confronti. Inoltre, è prevista la sorveglianza continua dei sistemi (affidabilità, aggiornamenti, verifica dei dati), con il supporto dell’Agenzia nazionale per i servizi sanitari regionali (Agenas) nella governance digitale della salute.
A livello europeo, è in vigore dal 1° agosto 2024 l’AI Act, prima normativa al mondo completa sul tema. Questo regolamento utilizza un sistema basato sul rischio: le applicazioni IA ad alto rischio, come quelle in ambito medico, devono rispettare requisiti stringenti su sicurezza, trasparenza, qualità dei dati e supervisione umana. Per gli altri casi, sono previste regole meno rigorose o semplici obblighi di trasparenza. Il regolamento è già vincolante in tutti gli Stati membri ed è supportato da un apparato istituzionale dedicato, tra cui l’European Artificial Intelligence Office, incaricato di vigilare e far rispettare le norme, in particolare per i modelli di IA “general-purpose”.
L’IA come alleato (e non sostituto) della terapia psicologica
C’è anche chi, da questa crisi sociale, intravede opportunità per migliorare la terapia psicologica e l’assistenza medica. Alcuni sviluppatori, come Pierre Cote con il suo “DrEllis.ai”, sostengono che i chatbot possano avere un ruolo complementare: non sostituire la psicoterapia, ma offrire uno spazio di supporto quotidiano a chi già segue un percorso clinico. Nella migliore delle ipotesi, potrebbero funzionare come “diari conversazionali” o strumenti di monitoraggio, utili a integrare ma non a rimpiazzare il rapporto con uno specialista. Tuttavia, senza una cornice chiara, il rischio che l’eccezione diventi la regola è alto.
L’intelligenza artificiale non può, in ogni caso, aiutare da sola. I casi di suicidio collegati a chatbot, le indagini che documentano risposte pericolose e le denunce degli esperti delineano uno scenario che non può essere ignorato. La tecnologia sta già cambiando il modo in cui le persone si relazionano al dolore e alla solitudine ma, senza regole adeguate e senza una consapevolezza diffusa, il confine tra sostegno e pericolo rischia di diventare troppo labile.
- Quanto vale la nostra immagine al tempo dell’intelligenza artificiale?Quanto vale la nostra immagine al tempo dell’intelligenza artificiale?
- Wikipedia sta combattendo contro la “sbobba artificiale”Wikipedia sta combattendo contro la “sbobba artificiale”