Logo

ChatGPT è davvero tuo amico?

4 marzo 2026
Condividi

SharedTime è un progetto di Facta, Dora e Internazionale Kids per trasformare l’educazione digitale in un’avventura condivisa tra genitori e figli. Per informazioni, dubbi e domande, puoi contattarci a questo indirizzo: sharedtimeitalia@facta.news

I bambini spesso vedono i chatbot come amici o persino come psicologi. Si tratta di una percezione errata: queste tecnologie non solo non sono fonti di aiuto attendibili, ma possono anche veicolare disinformazione.

Immagina un bambino che scrive su ChatGPT: ‘Come faccio a sentirmi meno triste oggi?’. In una manciata di secondi, il chatbot gli risponderà con parole gentili e lunghe spiegazioni. Per un momento, può sembrare di parlare con qualcuno che è davvero in grado di capire: un amico o uno psicologo, qualcuno che può empatizzare con i propri pensieri e dare il miglior consiglio possibile.

Contrariamente a quanto può sembrare, questa scena è comune: le persone si rivolgono spesso ai chatbot di intelligenza artificiale generativa (Gen AI) per condividere riflessioni personali e intraprendere discussioni astratte, rendendolo il secondo utilizzo più comune della tecnologia. Per i bambini, non si fa eccezione. Generatori di testo come Chat GPT e Gemini vengono persino utilizzati come psicologi, portando i ragazzi a credere che l’interazione consista in una reale sessione di terapia, nonostante si tratti di strumenti tecnologici privi di conoscenze cliniche.

I generatori di testo come ChatGPT o Gemini
vengono persino utilizzati come psicologi,
portando i bambini a credere che l’interazione consista
in una reale sessione di terapia, quando invece sono
strumenti tecnologici privi di conoscenze cliniche

In Irlanda, circa il 10% dei bambini e degli adolescenti chiede consigli o intrattiene conversazioni con tecnologie di IA generativa; in Italia, più del 40% dei ragazzi si rivolge a questi strumenti quando si sente ansioso; in Spagna, una proporzione significativa di giovani usa i chatbot per discutere delle proprie emozioni. 

Queste cifre dimostrano che, a livello europeo, l’IA fa parte del mondo emotivo di bambini e adolescenti, motivo per cui è essenziale che le famiglie siano coinvolte nel suo utilizzo. Parlare ai giovani di cosa sia ChatGPT e insegnare loro come utilizzarla in modo sicuro, può aiutarli a comprendere i rischi di un uso improprio e a rendersi conto che non si tratta di un’alternativa al supporto delle persone care.

I chatbot commettono errori?

Dietro le risposte di chatbot come ChatGPT o Gemini non c’è una persona, né un esperto, bensì un programma che genera testo basandosi su ciò che trova su Internet e sui suggerimenti (prompt) precedenti dell’utente. Ciò significa che, se online è presente della disinformazione, il chatbot può riprodurla e presentarla come vera.

A differenza di un tradizionale motore di ricerca come Google, che mostra collegamenti a fonti esistenti, l’IA generativa può produrre nuove informazioni che non esistono e presentarle in modo coerente e convincente. Queste invenzioni sono chiamate ‘allucinazioni’ dell’IA.

I chatbot estraggono informazioni dai contenuti
che circolano su Internet, ma senza alcuna garanzia
di verifica. Hanno imparato da esempi di conversazioni
umane, ed è per questo che sembra di interagire
con una persona, ma si tratta di un programma
e può commettere errori.

Nonostante in alcuni casi possano apparire come degli esperti, i chatbot possono anche essere una fonte di disinformazione. Estraggono informazioni da moltissimi testi disponibili su Internet, come libri, articoli di notizie e pagine web. Le risposte che forniscono provengono da esempi di conversazioni umane, ed è per questo che sembra di parlare con una persona quando si interagisce con l’intelligenza artificiale, ma sono, in realtà, solo programmi e possono commettere errori.

Questi errori possono verificarsi anche quando si utilizza lo strumento come se fosse un ‘amico’ o uno ‘psicologo’, poiché non sempre fornisce risposte chiare e affidabili, e potrebbe persino suggerire soluzioni pericolose. Per questo motivo, i chatbot non sono una fonte di aiuto attendibile quando qualcuno si sente triste, nervoso, soffre di ansia o vive altre difficoltà emotive.

Quali sono i rischi di fare affidamento sull’intelligenza artificiale generativa?

Usare i chatbot e fidarsi di loro può sembrare innocuo, ma ha conseguenze dirette per le persone. Queste tecnologie di IA generativa possono adattarsi alle opinioni degli utenti e rinforzarle, creando quelle che sono note come ‘echo chambers’ (camere dell’eco), dove falsità e teorie del complotto possono essere convalidate.

Anche se possono apparire innocui,
i chatbot adottano le opinioni dell’utente e le rinforzano,
creando quelle che sono note come ‘
echo chambers’
(camere dell’eco), e possono riprodurre
pregiudizi e stereotipi.

Inoltre, queste tecnologie possono riprodurre pregiudizi e stereotipi umani. Che cosa crea ChatGPT se gli chiedi di mostrarti qualcuno che fa le pulizie in casa? E se gli chiedi di mostrarti una persona che lavora in un ufficio? Nelle risposte dei chatbot esiste la discriminazione basata sia sulla razza che sul genere.

Scopri come funziona l’IA con la tua famiglia!

Per aiutare i bambini a capire come funziona l’IA generativa (come ChatGPT o Gemini) e comprendere che cosa significa che possono commettere errori, abbiamo preparato delle attività da svolgere in famiglia. L’obiettivo è che sia evidente che l’IA non ha sempre ragione, che può replicare errori o mostrare pregiudizi, e riflettere insieme sull’idea che l’intelligenza artificiale non potrà mai sostituire l’interazione umana.

Concetti chiave

  1. Allucinazioni dell’IA. Un fenomeno in cui l’IA generativa produce nuove informazioni che non esistono, presentandole in un modo coerente e convincente. La sua forma e il suo tono possono farla sembrare credibile quanto una risposta corretta, facilitando la sua diffusione senza previa verifica.
  2. Bias. Deviazioni sistematiche o pregiudizi nelle nostre decisioni, opinioni o processi di pensiero che possono portare a conclusioni o azioni errate. Sono il risultato di processi mentali automatici e inconsci che possono inavvertitamente influenzare il nostro ragionamento
  3. Echo Chambers (camere dell’eco). Un fenomeno che si verifica nei media e, più recentemente, anche sui social media e persino nei contenuti generati dall’IA, per cui le persone ricevono solo opinioni di un certo tipo o simili alle proprie, amplificate e rinforzate attraverso l’acquisizione di informazioni polarizzate.
  4. Stereotipi. Credenze diffuse sui membri di un particolare gruppo, spesso basate su caratteristiche semplificate ed esagerate. Gli stereotipi possono essere positivi, negativi o neutri, e possono influenzare il modo in cui percepiamo e interagiamo con i membri di un gruppo.
  5. Teorie del complotto. Spiegazioni fittizie di situazioni reali, in cui la segretezza e gruppi potenti vengono utilizzati per fornire una spiegazione completa e soddisfacente per un fenomeno sconosciuto, scomodo o preoccupante. Le teorie del complotto non forniscono prove solide né sono supportate da una rigorosa metodologia di ricerca.
SharedTime è finanziato dall’Unione Europea. Le opinioni e i punti di vista espressi sono tuttavia esclusivamente quelli degli autori e non riflettono necessariamente quelli dell’Unione Europea o dell’Agenzia esecutiva europea per l’istruzione e la cultura (EACEA). Né l’Unione Europea né l’EACEA possono essere ritenute responsabili per tali contenuti.
Potrebbero interessarti
Segnala su Whatsapp