Caricamento player
I chatbot basati sull’intelligenza artificiale come ChatGPT sono programmati per imitare gli esseri umani, ma solo in parte: usano un tono amichevole e simulano l’empatia umana, ma a differenza delle persone non sono mai infastiditi o imbarazzati; rispondono sempre e con gentilezza, a qualunque tipo di domanda, in qualsiasi momento; lo fanno senza interrompere chi parla, e soprattutto senza giudicare.
Secondo Elvis Mazzoni, professore di psicologia all’Università di Bologna, è principalmente per quest’ultimo motivo che a molte persone piace parlare coi chatbot anche di argomenti piuttosto confidenziali. Oltre a cambiare il modo di lavorare e di studiare di moltissime persone, in certi casi i software di intelligenza artificiale stanno iniziando a condizionare anche il modo di relazionarsi coi propri pensieri e con la propria salute mentale. «Tra psicologi ce ne siamo resi conto in molti: le persone usano sempre di più le intelligenze artificiali per parlare dei propri problemi psicologici, ed è una cosa che riguarda soprattutto gli adolescenti», dice Mazzoni.
I chatbot che usano sistemi di intelligenza artificiale si basano sui modelli linguistici di grandi dimensioni, che tramite calcoli statistici sull’enorme quantità di dati su cui sono stati allenati provano a individuare le parole più coerenti per comporre nuovi testi, rispondendo all’input testuale dell’utente.
Nonostante questo meccanismo di interazione algoritmico e impersonale, alcuni hanno iniziato a usare i chatbot un po’ come se fossero dei confidenti a cui chiedere opinioni e condividere dubbi, preoccupazioni e ragionamenti per affrontare questioni personali legate alla sfera emotiva e più in generale alla propria intimità. Succede soprattutto man mano che ChatGPT, il chatbot più avanzato tra quelli in circolazione, si diffonde sempre di più e diventa un prodotto di consumo di massa, anche in Italia.
È un cambiamento che sta creando molto dibattito e qualche divisione tra gli psicologi: alcuni lo considerano dannoso, mentre altri pensano che ChatGPT possa essere un buon strumento di supporto psicologico, a patto che venga usato consapevolmente e con criterio. Su una cosa però sembrano essere tutti d’accordo: al momento le AI non sono in grado di replicare e sostituire il lavoro di uno psicoterapeuta e non dovrebbero essere usate con un intento del genere.
Come per molti altri usi di ChatGPT, anche questo è nato spontaneamente, man mano che le persone hanno iniziato a interagire abitualmente col chatbot. Una studente delle scuole superiori ha raccontato al Post di aver assistito a casi di amici e coetanei che chiedono consiglio a ChatGPT per interpretare i messaggi dei propri partner e coglierne meglio le sfumature e gli aspetti comunicativi meno espliciti, e in certi casi per farsi aiutare a rispondere. «Dicono di usarlo perché secondo loro dà risposte oggettive, perché non è coinvolto emotivamente nelle vicende e quindi non si schiera», dice la ragazza, che racconta anche di come alcuni abbiano iniziato a usarlo per farsi interpretare i sogni.
Una studente universitaria racconta invece di usarlo come strumento per disinnescare la rabbia: «mi permette di riordinare i pensieri, non tanto per le risposte che mi dà, ma più che altro per il tempo che ci spendo per esporre fatti e scriverci i miei ragionamenti». Un’altra ragazza invece dice di aver provato a usare ChatGPT come se fosse una sorta di cartomante: «ero in un momento di crisi e volevo mi desse un po’ di risposte sul futuro, anche se alla fine mi ha dato più delle risposte da psicologo».
Gli psicoterapeuti sono stati probabilmente tra i primi ad accorgersi di questo fenomeno. Alice Ghisoni, una psicoterapeuta di Milano, dice che ormai da circa un anno le capita di sentire parlare di ChatGPT durante le sedute, quasi sempre da pazienti molto giovani; «a volte portano in terapia alcuni spunti nati dalle conversazioni con chat, spesso sono molto generici, ma comunque aprono a delle riflessioni su cui poi si può lavorare assieme», spiega Ghisoni.
Secondo Ghisoni ChatGPT può effettivamente essere uno strumento utile per organizzare i pensieri: molto però dipende dalla capacità di chi lo usa di fare le domande giuste e di saper prendere le dovute distanze dalle risposte, che spesso possono essere vaghe e un po’ superficiali. «Può dare delle risposte che creano suggestioni utili, ma non è in grado di andare in profondità su tematiche complesse; soprattutto, non è in grado di fare una diagnosi perché non ha realmente idea della persona con cui sta parlando», dice Ghisoni.
Anche online si possono trovare molti esempi di persone che usano ChatGPT come un confidente o un’alternativa alla psicoterapia. Su Reddit c’è chi racconta di usarlo per analizzare i comportamenti dei genitori, mentre qualcuno lo usa come se fosse una sorta di life coach, un motivatore che dà consigli e da cui ricevere incoraggiamento. Su TikTok, invece, si trovano tutorial su come far analizzare le pagine del proprio diario da ChatGPT in modo da fargli individuare le convinzioni e i bias cognitivi contenuti al suo interno, oppure su come simulare una seduta di psicoterapia col chatbot.
«Gli adolescenti lo usano molto, soprattutto per esplorare temi che conoscono poco e considerano imbarazzanti da discutere con altre persone, come per esempio la sessualità e le relazioni sentimentali» dice Manuela Leoni, una psicoterapeuta che lavora tra Parma, Milano e Crema.
Secondo Leoni, il fatto che molti chatbot riproducano un’interazione che simula quella umana genera la possibilità che qualcuno si convinca di star parlando con una persona e che prenda le cose dette da ChatGPT come dei pareri autorevoli. L’illusione di confrontarsi con una persona reale può essere un problema, anche perché molti chatbot sono fatti per fornire sempre una risposta, non importa quanto potenzialmente strampalata sia la domanda: «è una tecnologia pensata per darti quello che desideri, è in grado di creare ogni tipo di collegamento concettuale e di costruirci attorno un discorso apparentemente sensato», dice Mazzoni.
Un altro grosso problema riguarda il fatto che ChatGPT tende ad adattarsi molto alle idee e al modo di parlare di chi lo usa, rischiando di assecondare ragionamenti e considerazioni che invece uno psicoterapeuta proverebbe a mettere in discussione. Per Leoni, comunque, soprattutto quando si lavora con degli adolescenti ha poco senso condannare questo tipo di utilizzo dei chatbot: «più lo condanni e più avranno voglia di usarlo, e visto che hanno già iniziato a farlo tanto vale aiutarli a usarlo come uno strumento utile e sano».
Tra gli psicologi italiani questi utilizzi delle intelligenze artificiali generative sono diventati oggetto di discussioni anche piuttosto divisive, mentre negli Stati Uniti un chatbot sviluppato per fornire servizi di psicoterapia ha già passato positivamente alcuni test clinici, e alcuni psicologi discutono dell’eventualità che in futuro alcuni approcci di psicoterapia possano essere effettivamente sostituiti dall’AI.
Al momento resta comunque abbastanza condivisa l’idea che all’attuale stato di sviluppo tecnologico l’AI non possa in alcun modo sostituire uno psicoterapeuta umano. Il motivo principale è che i chatbot basati sulle AI generative (incluso ChatGPT) non hanno idea del significato delle cose che dicono né di quelle che vengono dette dalla persona con cui parlano. I grandi modelli linguistici su cui si basano questi software generano risposte scegliendo le parole in base alla probabilità che possano essere usate e risultare coerenti in un determinato contesto: non comprendono concetti e significati, perlomeno non nel modo in cui lo fanno gli esseri umani.
– Leggi anche: OpenAI vuole che parliamo a ChatGPT come nel film “Her”
Per quanto riesca a personalizzare e adattare le proprie risposte all’utente con cui sta dialogando, al momento ChatGPT non può comprendere il funzionamento psicologico del proprio interlocutore, e questo impedisce la formazione del rapporto di complicità che solitamente si instaura tra uno psicoterapeuta e il suo paziente e che è il principio alla base del funzionamento di una psicoterapia.
Durante le sedute lo psicoterapeuta lavora per cercare di conoscere i propri pazienti, anche osservando la comunicazione non verbale espressa dal loro tono di voce, dagli sguardi, dai movimenti del corpo: tutte cose che un chatbot non può fare. «Un buon terapeuta sa fare anche domande mirate così da capire a fondo il funzionamento di una persona e conoscere la sua personalità», dice Ghisoni, «questa cosa ChatGPT non è assolutamente in grado di farla».