Logo

La psicoterapia basata sull’IA è ancora una pessima idea

Therapeak e le altre: si moltiplicano le piattaforme che promettono un percorso terapeutico gestito dal chatbot. Ma i rischi sono molti più dei benefici

16 dicembre 2025
Condividi

 

I chatbot basati su intelligenza artificiale sono diventati spazi in cui riversare le proprie fragilità mentali. Numerosi utenti in tutto il mondo, adolescenti e non solo, chiedono a ChatGPT conforto e ascolto in situazioni di ansia, sintomi depressivi o per qualsiasi disagio esistenziale. Le piattaforme IA vengono scambiate per veri e propri studi di psicoterapia con tutti i rischi connessi al ricorso ad agenti virtuali per problematiche cliniche reali. 

In Italia, secondo l’ultima edizione dell’Atlante dell’Infanzia a rischio di Save the Children, quasi il 42 per cento degli adolescenti intervistati tra i 15 e i 19 anni si rivolge all’intelligenza artificiale nei momenti di tristezza, solitudine o ansia, oppure per prendere decisioni importanti su scuola, lavoro e relazioni. L’uso quotidiano dell’IA tra i ragazzi è quasi il doppio rispetto agli adulti, e una parte significativa si rivolge a chatbot che promettono anche percorsi di psicoterapia. 

Oltre ai chatbot più generici, in Rete si possono trovare vere e proprie piattaforme di psicoterapia basate sull’IA. È il caso ad esempio di Therapeak, fondata dagli olandesi Sarp Derinsu, sviluppatore, e Nisan Derinsu, che dichiara di avere una laurea in Consulenza psicologica e orientamento. Una piattaforma che propone – come si legge sul suo sito – «un terapeuta IA che meglio si adatta alle tue esigenze gratuitamente». Questi terapeuti IA, si legge ancora, «sono progettati per corrispondere alle tue preferenze e fornire supporto personalizzato, assicurandoti di sentirti a tuo agio e compreso durante le tue sessioni di terapia». I terapeuti vengono presentati come se fossero reali professionisti con un nome, cognome, e soprattutto un volto accogliente e rassicurante. In realtà, non sono altro che degli avatar di un chabot, come riporta il disclaimer sul sito. 

Come funziona Therapeak

Il percorso con Therapeak parte con un questionario che indaga sulla salute mentale dell’utente: chiede se stiamo vivendo stati di ansia, se ci sentiamo apatici o depressi, se mangiamo tanto oppure poco. E poi le domande sul tipo di terapeuta ricercato. Tra queste, una solleva numerose perplessità: Therapeak chiede all’utente se preferisce una terapia basata sull’Islam, sull’ebraismo o sul cattolicesimo. Un aspetto che si discosta dalle pratiche professionali. Dopo questa valutazione, ecco l’assegnazione di un avatar con cui si inizia a chattare. 

«Utilizziamo il modello IA di punta più recente» rimarcano i creatori sul sito web «rinomato per la sua empatia, assicurando che tu riceva cure compassionevoli e personalizzate. I nostri terapisti IA hanno personalità e profili distinti tra cui puoi scegliere». Dopo l’iscrizione viene creato un terapista appositamente per l’utente che, promette Therapeak, «ricorda ogni sessione, permettendoti di continuare da dove avevi lasciato, con una comprensione completa di tutte le tue interazioni precedenti». 

Il costo è irrisorio rispetto ai classici incontri online o in presenza: 20 euro a seduta. Sembra una proposta economica conveniente e allettante eppure i rischi della piattaforma superano di gran lunga le opportunità. A sollevare perplessità, rivolgendosi al Consiglio nazionale dell’Ordine degli psicologi italiani, è stata la psicologa e psicodiagnosta Laura Messina, fondatrice e legale rappresentante di Klinikos, centro di psicodiagnosi romano. Messina ha scoperto l’esistenza di Therapeak tramite post sponsorizzati sui social: «Mi ha colpito immediatamente» racconta la professionista a Facta «l’offerta di una presunta terapia 24 ore al giorno, 7 giorni su 7, a costi irrisori. Sono andata ad approfondire e ho visto che questa piattaforma promuove dei profili che sembravano professionisti, ma che, da quanto risulta, sono sostanzialmente degli avatar generati con l’intelligenza artificiale».

Da qui i dubbi di Messina sulla trasparenza e sulla correttezza dell’informazione rivolta ai cittadini. La psicologa si è rivolta al Consiglio nazionale dell’ordine degli psicologi evidenziando un punto che ritiene abbastanza critico: la proposta di Therapeak di offrire una psicoterapia interamente basata sull’intelligenza artificiale. 

I rischi di uno psicoterapeuta IA

La psicologa Laura Messina parla di un «rischio importante, ovvero quello di far credere di essere all’interno di un percorso terapeutico quando in realtà si sta usando un chatbot che naturalmente non conosce la persona, non formula diagnosi e non è in grado di formulare soprattutto il rischio psicologico». Secondo la psicologa, i terapeuti virtuali non avrebbero le competenze e la reale conoscenza del paziente per poter rilevare un disturbo psichico. «Mi spaventa molto l’assenza di una responsabilità professionale delle risposte che sono generate da un’intelligenza artificiale, soprattutto in situazioni delicate come quelle di sofferenza psicologica, quale trauma o la depressione, a volte anche le ideazioni suicidarie», ha aggiunto l’esperta.

Sempre secondo Messina, resta la confusione sulla proposta di un percorso di terapia che non è condotto da veri professionisti. Nella terapia con un’IA verrebbe a mancare un aspetto fondamentale del percorso: il setting, quell’insieme delle condizioni, degli accordi e degli elementi che definiscono il contesto in cui avviene il lavoro terapeutico tra paziente e terapeuta. «Bisogna ricordare» spiega ancora la psicologa, «che la salute mentale richiede un contenitore clinico che l’algoritmo non possiede, una competenza che non può essere in questo momento assunta da un’intelligenza artificiale, per come essa è strutturata attualmente».

A proposito dei pensieri di togliersi la vita, Therapeak sembra voler aggirare le responsabilità dei propri “terapeuti” con un disclaimer, posto nella parte bassa del portale: «In caso di emergenze, questo sito non è un sostituto per l’aiuto immediato. Se sei in crisi, chiama la National Suicide Prevention Lifeline, componi i servizi di emergenza o visita il pronto soccorso più vicino».  

Nel frattempo, i casi in cui i chatbot basati su IA vengono accusati di indurre le persone a compiere gesti estremi aumentano. Il Guardian ha riportato che Amaurie Lacey, diciassettenne dello stato della Georgia, negli Stati Uniti, che si è tolta la vita lo scorso agosto, per un mese aveva intrattenuto conversazioni con ChatGPT incentrate sul tema del suicidio. Di recente, come raccontato dal Wall Street Journal, ChatGPT è finito in tribunale a New York per complicità in omicidio. Il chatbot di OpenAI, infatti, avrebbe contribuito a causare l’assassinio di una madre da parte del suo stesso figlio dopo che il chatbot aveva avallato i deliri paranoici del ragazzino. 

Perché viene scelto lo psicoterapeuta IA

Therapeak, intanto, guadagna feedback positivi. Su Trustpilot, portale che raccoglie le recensioni degli utenti relative a servizi e prodotti, colleziona – al momento in cui scriviamo – il 64 per cento di valutazioni a cinque stelle, il punteggio massimo di gradimento. Scrive un utente: «Nel mio caso, credo che per il momento non andrò alla ricerca di uno psicologo in carne ed ossa (come era nei miei piani), perché con Therapeak attualmente non ne sento la necessità. Ah, dimenticavo: uso Therapeak da 10 giorni». Non mancano, però, recensioni allarmanti, come quelle di un utente italiano: «Nei report che mandate c’è scritto diagnosi, piano terapeutico, tra le opzioni di terapeuta mi fate scegliere non tra i modelli (Rogers, cognitivo comportamentale, sistemico) ma tra terapia basata sul cristianesimo, Islam, ebraismo. Sono cose che non esistono, campate per aria. E vorrei sapere, dato che ho visto chi sono i due proprietari del sito, se c’é uno psicologo, riconosciuto ed iscritto all’albo, che vi segue».

Per Laura Messina preferire un terapeuta virtuale è sintomo di un meccanismo di cura distorto. La professionista spiega che «non è detto che lo psicoterapeuta debba essere in sintonia con il paziente. Il terapeuta, a rischio di essere inviso dal paziente, ha l’obbligo morale e clinico naturalmente di farlo notare. L’intelligenza artificiale invece è molto assecondante».

Insomma i chatbot sembrano essere accondiscendenti con gli utenti, non hanno le credenze o la professionalità, nel caso di discussioni su problematiche di salute mentale, per controbattere. «Ti dà sempre ragione l’intelligenza artificiale, basta fare una piccola discussione con chat GPT e ti senti il padrone del mondo perché ti dà sempre e comunque  ragione», spiega Laura Messina. 

E poi ci sono aspetti legali rilevanti. Tanto che il Consiglio dell’ordine degli psicologi ha segnalato la piattaforma alla procura di Roma – riferisce la psicologa Messina – chiedendo di valutare la condotta dei gestori di Therapeak. Sui rischi delle psicoterapie con IA è intervenuta anche l’American Psychological Association (Apa) con un documento-guida che invita a distinguere le reali cure dalle proposte virtuali: «I chatbot basati su intelligenza artificiale generativa non sono stati creati per fornire assistenza sanitaria mentale, né le app per il benessere sono state progettate per trattare disturbi psicologici, ma entrambe le tecnologie vengono frequentemente utilizzate per questi scopi».

L’Apa è chiara nell’evidenziare che «l’interazione con chatbot GenAI e applicazioni per il benessere a fini di salute mentale può avere effetti imprevisti e persino danneggiare la salute mentale. C’è un evidente bisogno di chiarezza e di normare un settore che rischia di causare danni con la promessa di favorire il benessere mentale».

L’immagine di copertina è stata realizzata tramite l’intelligenza artificiale generativa.

Potrebbero interessarti
Segnala su Whatsapp