Nel silenzio della propria stanza, sempre più ragazzi e ragazze scelgono di affidare pensieri, paure e disagi emotivi a ChatGPT, un’intelligenza artificiale che i giovani vedono – all’occorrenza – come uno psicologo.
Una chat, una voce sintetica, un algoritmo che ascolta senza giudicare. Sembra quasi terapeutico, ed è proprio così che molti lo vivono: come una forma di “terapia alternativa”, accessibile in ogni momento, senza appuntamenti né costi, né il timore di essere davvero visti.
In un’epoca in cui la tecnologia si insinua in ogni aspetto della vita quotidiana, anche il benessere mentale sembra destinato a interfacciarsi con chatbot, app, e strumenti digitali sempre più sofisticati.
Ma può davvero un’intelligenza artificiale sostituire l’ascolto umano, lo sguardo empatico, l’esperienza clinica di uno psicologo? Oppure si rischia di confondere il conforto temporaneo con una cura profonda, rischiando di lasciare irrisolti problemi che meritano un’attenzione ben diversa?
Per fare chiarezza su questo fenomeno in crescita, è intervenuta ai microfoni di NewSicilia la Dott.ssa Valentina La Rosa: psicologa, psicoterapeuta, assegnista di ricerca e docente a contratto di Psicologia dello Sviluppo presso l’Università di Catania.
ChatGPT usato come psicologo: l’intervista
- Secondo lei, cosa spinge alcuni giovani a rivolgersi a ChatGPT invece che a uno psicologo in carne e ossa? Può l’aspetto economico incidere sulla scelta?
“Negli ultimi anni, molti giovani si sono avvicinati all’intelligenza artificiale anche per parlare dei propri vissuti emotivi. Le ragioni sono diverse. Da un lato, c’è l’attrattiva esercitata da uno strumento immediato e sempre disponibile, che si inserisce perfettamente nella quotidianità digitale dei giovani”.
“Dall’altro lato, l’aspetto economico gioca un ruolo importante: non tutti i ragazzi hanno la possibilità di sostenere un percorso psicologico a pagamento e l’accesso ai servizi pubblici è spesso limitato da lunghe liste di attesa. In questo senso, l’IA può apparire come un’alternativa “a portata di mano”, anche se non sempre adeguata”.
Quali sono i limiti principali di ChatGPT come “strumento terapeutico” rispetto a un colloquio con uno psicologo?
“L’intelligenza artificiale, per quanto sofisticata, non è in grado di comprendere davvero la complessità emotiva dell’essere umano. Mancano infatti la dimensione empatica, il linguaggio non verbale, l’uso del silenzio e la co-costruzione del significato nel dialogo“.
“Un algoritmo può fornire risposte coerenti o rassicuranti ma non può instaurare una relazione nel senso psicologico del termine. La terapia è un processo dinamico e profondamente umano che richiede competenze cliniche, ascolto autentico e la capacità di adattarsi alla storia unica di ogni individuo”.
Ci sono rischi concreti nel confidare i propri disagi emotivi a un’intelligenza artificiale?
“Sì, ci sono rischi concreti da non sottovalutare. In primo luogo, c’è il rischio di ricevere risposte inadeguate o standardizzate che non tengono conto del contesto personale, culturale o relazionale della persona. Inoltre, alcune piattaforme non garantiscono la piena tutela della privacy, esponendo gli utenti al rischio di violazioni dei dati sensibili“.
“Tuttavia, il rischio maggiore riguarda il piano psicologico: affidarsi esclusivamente all’IA può rafforzare forme di isolamento sociale, soprattutto nei soggetti più vulnerabili, e alimentare dinamiche simili al noto fenomeno dell’hikikomori in cui il mondo esterno viene progressivamente evitato a favore del mondo virtuale. Inoltre, si può andare incontro a un aumento delle dipendenze digitali, in cui la relazione con lo schermo diventa l’unica modalità di regolazione delle proprie emozioni. Tutto questo può ostacolare l’accesso a una rete di supporto reale e ritardare il ricorso a un aiuto professionale qualificato”.
Molti giovani sostengono di sentirsi meno giudicati quando parlano con ChatGPT. Cosa risponde a questa affermazione?
“È un vissuto del tutto comprensibile. Parlare con un’intelligenza artificiale può dare l’impressione di “sfogarsi senza rischi”, proprio perché non si ha di fronte uno sguardo umano. Tuttavia, questo ci dice molto del nostro bisogno profondo di essere accolti senza giudizio”.
“In realtà, gli psicologi sono formati per ascoltare in modo non giudicante, con empatia e rispetto. Se i giovani temono il giudizio, forse dobbiamo lavorare ancora di più sulla cultura della salute mentale per far loro comprendere che lo spazio terapeutico è un luogo sicuro, in cui è possibile essere autentici senza timore del giudizio”.
Cosa rende il rapporto tra paziente e psicologo così unico e insostituibile?
“Il cuore della psicoterapia è la relazione. Non è solo ciò che si dice ma anche come ci si sente quando si viene ascoltati e visti da un’altra persona. Uno psicologo non offre solo competenze tecniche, ma anche una presenza viva e autentica che accoglie l’altro nella sua interezza. Esprimere le proprie emozioni davanti a qualcuno che le riconosce e le accoglie, anche solo con un sorriso o con la propria presenza silenziosa nel momento del pianto, è un’esperienza trasformativa”.
“Questo tipo di riconoscimento, che passa anche attraverso il linguaggio non verbale, permette alla persona di sentirsi degna di attenzione e legittimata nel suo dolore e nella sua complessità. È proprio questa dimensione relazionale, fatta di empatia, sintonizzazione e co-costruzione di significati, a rendere il rapporto psicologo-paziente profondamente umano e non sostituibile da alcuna forma di intelligenza artificiale”.
Come si può rendere la figura dello psicologo più “accessibile” e meno intimidatoria per i ragazzi?
“Prima di tutto, è necessario utilizzare una comunicazione più vicina al linguaggio e ai canali delle nuove generazioni. È importante anche lavorare sulla prevenzione e sulla presenza dello psicologo nei contesti quotidiani dei ragazzi, come la scuola, le università e i centri di aggregazione”.
“Lo psicologo non dovrebbe essere visto come “l’ultima spiaggia” o lo specialista dei “matti”, ma come una risorsa di supporto e crescita a cui rivolgersi senza vergogna. Normalizzare il dialogo sulle emozioni e sul benessere mentale è sicuramente un passaggio cruciale”.
In conclusione, pensa che l’intelligenza artificiale possa avere comunque un ruolo positivo nel campo della salute mentale?
“Assolutamente sì, a condizione che venga considerata per ciò che è: uno strumento, non un sostituto. L’intelligenza artificiale può supportare la salute mentale in molti modi: ad esempio, può facilitare lo screening, fornire informazioni affidabili, proporre esercizi psicoeducativi o tecniche di regolazione emotiva”.
“Può rappresentare un primo passo verso la cura o affiancare percorsi psicologici già avviati. Tuttavia, non va idealizzata: il cuore della cura rimane la relazione e nessun algoritmo potrà mai sostituire la profondità di sguardi e parole che ci accolgono e ci comprendono”.