Lo ha annunciato OpenAI dopo che una famiglia le ha fatto causa per il suicidio del figlio, che si era confidato con il chatbot
Caricamento player
OpenAI, l’azienda che ha creato il sistema di intelligenza artificiale ChatGPT, ha annunciato che entro il mese prossimo introdurrà nel programma alcune funzionalità per permettere ai genitori di monitorare l’attività dei figli. Negli ultimi mesi si è parlato parecchio delle possibili implicazioni dell’uso di ChatGPT e di altre piattaforme simili sulla salute e sulla sicurezza, anche perché ad agosto una famiglia californiana aveva fatto causa a OpenAI per non essere intervenuta quando il loro figlio sedicenne aveva iniziato a confidare al chatbot l’intenzione di uccidersi, cosa che poi ha fatto.
Nell’annunciare le nuove funzioni OpenAI non ha fatto riferimento al caso specifico del ragazzo, ma aveva detto per la prima volta di starci lavorando il giorno stesso in cui la coppia ha presentato la causa.
Martedì l’azienda ha dato più dettagli sulle funzionalità di supervisione. Concretamente permetteranno ai genitori di collegare il proprio account a quello dei figli (che comunque devono avere almeno 13 anni per averne uno). In questo modo i genitori potranno decidere se mantenere attivo un modello di ChatGPT adattato per interagire con gli adolescenti (che sarà l’opzione di default) e se disattivare alcune funzioni, come il salvataggio della cronologia dei messaggi e il loro eventuale uso nelle successive interazioni. Potranno inoltre ricevere delle notifiche quando ChatGPT rileva che gli adolescenti sono in momenti di forte difficoltà.
Da quando è disponibile al pubblico ChatGPT è usato da molti utenti anche come confidente o quasi come uno psicologo. Eventuali preoccupazioni riguardanti il benessere degli utenti erano già emerse, e il chatbot è programmato per prendere alcune precauzioni quando riceve messaggi che considera preoccupanti, per esempio incoraggiando l’interlocutore a contattare una linea di assistenza o a cercare aiuto da professionisti. Secondo i critici del programma queste precauzioni sarebbero però insufficienti e facilmente aggirabili.
OpenAI ha detto anche di aver creato una commissione di esperti che dovrebbe consigliare l’azienda sulle questioni che riguardano i giovani, la salute mentale e le interazioni fra le persone e i computer.