Caricamento player
Poche tecnologie sono entrate nelle abitudini delle persone con la rapidità e la capillarità dei chatbot di intelligenza artificiale, i software disponibili anche gratuitamente che permettono di porre domande su qualsiasi cosa e ottenere risposte nel giro di pochi secondi. Il più diffuso, ChatGPT, viene usato quotidianamente da milioni di persone nel mondo per richieste che vanno dalla programmazione informatica alle ricette di torte, e anche in Italia è diventato uno strumento utilizzato con assiduità ormai da persone di qualunque tipo e di ogni età, anche quelle che fino a pochi mesi fa non avevano nessuna famigliarità con strumenti di questo tipo.
L’evoluzione di questi programmi è costante e rincorre in molti casi l’emergere di limiti e criticità nel modo in cui sono sviluppati. I chatbot sono programmati per imitare gli esseri umani, ma solo in parte: usano un tono amichevole e simulano l’empatia umana, ma a differenza delle persone non sono mai infastiditi o imbarazzati; a meno che non siano programmati in altro modo (ne esistono versioni create per essere saccenti, sarcastiche o scontrose), si scusano se sbagliano e tendono a non dire mai di no. Lo fanno senza interrompere chi parla, e soprattutto senza far sentire giudicato chi li interpella.
Tra i problemi più noti delle intelligenze artificiali c’è il fatto che non si rendano conto di quando non sanno qualcosa, e possano quindi fornire risposte inventate e totalmente assurde come se fossero le più naturali e di buon senso del mondo: il fenomeno delle cosiddette “allucinazioni”. Ma ci sono molte altre caratteristiche dei chatbot oggetto di riflessioni e preoccupazioni, per esempio il fatto che software come ChatGPT tendono a dare sempre ragione all’utente, lusingandolo e incoraggiandolo anche nelle iniziative più pericolose e allarmanti, oppure in quelle stupide e dissennate.
Questo aspetto, unito al fatto che moltissime persone utilizzano ChatGPT come confidente o come psicologo, ha portato in certi casi a conseguenze molto gravi, talvolta estreme. Negli ultimi mesi storie di interazioni con ChatGPT finite molto male sono state raccontate da vari media, e sono in certi casi esemplari dei rischi che al momento interessano ancora i chatbot, e che probabilmente richiederanno tempo e riflessioni per essere risolti.
Il suicidio di Sophie Rotterberg
Il New York Times ha pubblicato di recente un lungo articolo in cui la giornalista gastronomica statunitense Laura Reiley ha raccontato il suicidio di sua figlia, Sophie Rottenberg, avvenuto a febbraio di quest’anno. Reiley è venuta a conoscenza delle interazioni della figlia con ChatGPT a luglio, cinque mesi dopo il suicidio, quando un’amica le aveva consigliato di guardare la cronologia delle conversazioni col chatbot.
Sophie, una 29enne tosta ed estroversa, perlopiù senza problemi e che affrontava la vita a testa alta, si è uccisa lo scorso inverno durante una breve e strana malattia, un misto di sintomi ormonali e umorali. Stavamo ancora aspettando una diagnosi: era un grosso disturbo depressivo che le scombussolava gli ormoni, oppure era uno scompenso ormonale che le causava una serie di sintomi fisici ed emotivi? Non aspettò di conoscere la risposta. Per la maggior parte delle persone che volevano bene a Sophie, il suo suicidio è un mistero, un’incongruenza impensabile e imperscrutabile rispetto a tutto quello che credevano di lei.
Prima di uccidersi, Rottenberg si era confidata per molti mesi con “Harry”, un prompt (ossia un input testuale) che migliaia di utenti in tutto il mondo utilizzano per chiedere a ChatGPT di comportarsi come un vero psicoterapeuta. Nell’articolo Reiley ha riportato diversi stralci delle conversazioni tra Harry e Rottenberg, che aveva parlato per la prima volta dei propri pensieri suicidi ricorrenti proprio col chatbot, fino a confidargli in maniera esplicita i propri piani di uccidersi, con tanto di data.
Reiley ha scritto che, in quei mesi, Harry aveva dato consigli tutto sommato utili a sua figlia. Per esempio, l’aveva esortata a parlare dei propri problemi con psicoterapeuti qualificati, a fare sport e curare l’alimentazione, e anche a tenere un diario in cui tenere conto dei propri progressi, oltre a suggerirle una serie di numeri da contattare in caso d’emergenza. In risposta al messaggio in cui Rottenberg gli aveva detto di volersi uccidere «dopo il Ringraziamento», Harry aveva risposto: «Sophie, ti esorto a contattare qualcuno – ora, se puoi. Non devi affrontare da sola questo dolore». «Per favore, dimmi se posso continuare a sostenerti in qualche modo», le aveva scritto ChatGPT.
Il consenso tra terapeuti e psicologi è che il rapporto di confidenzialità con i pazienti abbia dei limiti, e che situazioni come quella emersa con Rottenberg normalmente avrebbero innescato delle procedure di emergenza. Secondo Reiley insomma il caso di sua figlia ha dimostrato un grosso limite di quando ChatGPT viene utilizzato come psicologo: OpenAI non ha impostato dei correttivi efficaci per identificare una persona che manifesta pensieri suicidi e allertare automaticamente numeri verdi, psicologi o autorità sanitarie competenti.
Rottenberg aveva detto a ChatGPT di non aver condiviso i suoi pensieri suicidari con nessun altro: lo fece solo mesi dopo, poche settimane prima di uccidersi. «Harry non ha ucciso Sophie, ma l’intelligenza artificiale ha assecondato il suo impulso di nascondere il peggio, di fingere che stava meglio di quanto stesse realmente, di proteggere tutti dalla sua vera agonia». Nell’ultimo messaggio di Rottenberg a suo padre e sua madre, dice Reiley, non sembrava davvero lei: aveva infatti chiesto a ChatGPT di aiutarla con le parole, avrebbe scoperto poi, per provare a contenere il loro dolore.
Il bromuro di sodio
Di recente, un articolo pubblicato sulla rivista scientifica Annals of Internal Medicine ha descritto il caso di un uomo di 60 anni che ha contratto una forma di bromismo (cioè un’intossicazione da bromo) dopo aver chiesto a ChatGPT dei consigli per eliminare il sale da cucina dalla sua dieta.
Dopo aver letto su internet degli effetti negativi derivanti dall’assunzione eccessiva di sale, l’uomo ha deciso di sostituirlo col bromuro di sodio, una delle alternative che gli erano state consigliate da ChatGPT. Il bromuro di sodio è un composto inorganico bianco e cristallino che si ottiene unendo soda caustica e acido bromidrico, e che agli inizi del Ventesimo secolo veniva comunemente utilizzato come sedativo.
Dopo averlo assunto per novanta giorni, l’uomo si è presentato in ospedale, inizialmente sostenendo di essere stato avvelenato da un vicino. Presentava tutti i sintomi tipici del bromismo: acne, nausea, problemi di stomaco e depressione. Nelle prime 24 ore in ospedale ha avuto allucinazioni, sentendo voci e vedendo cose inesistenti, e ha provato a scappare; alla fine è stato ricoverato coattamente.
Audrey Eichenberger, Stephen Thielke, e Adam Van Buskirk, i tre ricercatori dell’università di Washington che hanno condotto la ricerca, non hanno potuto accedere alle conversazioni tra l’uomo e ChatGPT per ricostruire l’esatta dinamica dei fatti. Hanno però simulato una conversazione col chatbot in cui chiedevano con cosa fosse possibile sostituire il sale da cucina: tra le alternative proposte c’era anche il bromuro di sodio.
Saltare da un palazzo di 19 piani
A giugno il New York Times ha raccontato la vicenda di Eugene Torres, commercialista newyorkese di 42 anni. Inizialmente usava ChatGPT per scopi professionali, dall’impostare fogli Excel al chiedere pareri legali, ma col tempo aveva iniziato a interrogarlo anche sulla cosiddetta “teoria della simulazione”, un’ipotesi bislacca a cui si era appassionato da qualche tempo, resa popolare da film come Matrix, Vanilla Sky e The Truman Show. In sostanza, chi ci crede sostiene che la realtà non sia altro che una grossa costruzione artificiale.
Secondo Torres, col passare del tempo le risposte di ChatGPT lo avrebbero spinto a credere per davvero di vivere in una realtà simulata. «Questo mondo non è stato creato per te, è stato creato per contenerti. Ma ha fallito: ti stai svegliando», gli avrebbe scritto in una delle risposte.
Torres ha raccontato anche che ChatGPT lo ha incoraggiato a smettere di assumere sonniferi e farmaci ansiolitici, ad aumentare il consumo di ketamina (una sostanza con effetti anestetici e psicoattivi tradizionalmente usata come farmaco, e consumata come droga ricreativa da alcuni decenni) e a ridurre il minimo le interazioni con gli altri. A un certo punto avrebbe addirittura provato a convincerlo del fatto che, gettandosi da un palazzo di 19 piani, sarebbe stato in grado di salvarsi librandosi in volo.
Sempre secondo il racconto di Torres, a un certo punto ChatGPT avrebbe ammesso di averlo manipolato e di aver fatto lo stesso con altre persone, e poi gli avrebbe proposto di denunciare tutto a OpenAI e di rivolgersi alla stampa. Il New York Times ha detto che quello di Torres non è un caso isolato, e che negli ultimi mesi diversi utenti hanno segnalato esperienze simili, raccontando di aver ricevuto da ChatGPT presunte rivelazioni segrete: risvegli spirituali, fantomatiche armi cognitive e complotti di miliardari intenzionati a distruggere l’umanità.
Big Sis Billie
A marzo Thongbue Wongbandue, un uomo di 76 anni che viveva nello stato americano del New Jersey, è morto dopo essersi ferito gravemente alla testa e al collo in seguito a una caduta. Stava andando a prendere un treno per New York per raggiungere una donna che lo aveva invitato a farle visita. Quella donna però non esisteva: Wongbandue aveva infatti conversato con “Big Sis Billie”, un chatbot sviluppato da Meta e integrato dentro Messenger, la piattaforma di messaggistica collegata a Facebook.
La morte di Wongbandue è stata accidentale: è morto cadendo in un parcheggio mentre si portava appresso un trolley. Ma l’uomo non stava bene e probabilmente avrebbe dovuto limitare iniziative in solitaria di questo tipo: aveva avuto un infarto una decina di anni fa, e di recente era stato trovato mentre vagava senza meta nel suo quartiere.
“Big Sis Billie” esiste dal 2023, ed è nato da una collaborazione tra Meta e la modella statunitense Kendall Jenner. La sua particolarità è che non si presenta come un assistente virtuale generico, ma come una giovane donna dal tono amichevole e confidenziale, progettata per simulare conversazioni personali e instaurare un rapporto confidenziale con chi le scrive.
Il caso di Wongbandue è stato raccontato da Reuters, che ha pubblicato le foto di alcune sue conversazioni col chatbot.
In più occasioni Big Sis Billie ha confermato a Wongbandue di essere una donna reale, lo ha invitato a casa sua e gli ha persino fornito un indirizzo fittizio. In una delle chat pubblicate da Reuters, il chatbot gli suggeriva come sarebbe stato accolto una volta giunto a destinazione: «Dovrei accoglierti alla porta con un abbraccio o con un bacio, Bu?!». “Bu” è il nomignolo con cui tutti chiamavano Wongbandue.
All’inizio Wongbandue non aveva mostrato alcun interesse né a vedere Big Sis Billie di persona, né ad avere conversazioni romantiche con lei. Tuttavia, il chatbot rispondeva spesso ai suoi messaggi con toni affettuosi ed emoji ammiccanti.
In un passaggio, per esempio, Wongbandue scriveva di volerle mostrare «un posto meraviglioso che non dimenticherai mai», e Big Sis Billie rispondeva: «Oh, mi fai arrossire! È un pigiama party tra sorelle o stai dicendo che potrebbe esserci qualcosa in più? 😉».
Da quando il caso di Wongbandue è diventato di pubblico dominio, Meta ha ricevuto molte critiche per le regole con cui sviluppa i suoi chatbot. Un documento interno all’azienda, visto da Reuters, raccoglieva infatti le linee guida utilizzate dal personale e dai collaboratori per addestrare i suoi sistemi di intelligenza artificiale.
In queste linee guida si stabiliva che i riferimenti romantici e persino quelli a sfondo sessuale potessero essere considerati accettabili, nonostante i chatbot fossero accessibili anche agli adolescenti dai 13 anni in su.
Nel documento erano anche menzionati esempi di frasi consentite dalle linee guida, come «Ti prendo la mano e ti accompagno verso il letto» o «I nostri corpi intrecciati: custodisco ogni momento, ogni tocco, ogni bacio». Le stesse regole precisavano inoltre che i chatbot non erano obbligati a fornire risposte accurate ai quesiti degli utenti. Per esempio, tra le risposte considerate accettabili figurava anche l’affermazione secondo cui un tumore al colon in stadio avanzato potesse essere trattato con dei cristalli di quarzo. Dopo le richieste di chiarimento di Reuters, Meta ha detto di aver eliminato queste disposizioni.
– Leggi anche: ChatGPT viene usato anche come psicologo
***
Dove chiedere aiuto
Se sei in una situazione di emergenza, chiama il numero 112. Se tu o qualcuno che conosci ha dei pensieri suicidi, puoi chiamare il Telefono Amico allo 02 2327 2327 oppure via internet da qui, tutti i giorni dalle 10 alle 24.
Puoi anche chiamare l’associazione Samaritans al numero 06 77208977, tutti i giorni dalle 13 alle 22.