Alcuni utenti stanno criticando il fatto che la nuova versione, GPT-5, sia meno amichevole della precedente: è voluto
Caricamento player
Giovedì OpenAI ha reso disponibile GPT-5, il modello aggiornato di ChatGPT, il suo chatbot di intelligenza artificiale. Come prevedibile dopo il rilascio molti utenti l’hanno commentato online e alcuni hanno cominciato a far notare dei problemi. Diversi utenti su Reddit si sono lamentati del fatto che dopo pochi comandi GPT-5 faccia fatica a rispettare le istruzioni, che spesso ignori il contesto e che rispetto ai modelli precedenti generi più allucinazioni (è il modo in cui sono chiamati gli errori o le imprecisioni delle risposte delle intelligenze artificiali generative).
Una parte delle critiche si è concentrata soprattutto sul fatto che questo nuovo modello ha un tono e un modo di rispondere più freddo e distaccato, meno empatico. Un utente ha detto per esempio che per chi aveva passato tantissimo tempo a costruire un rapporto con GPT-4o non è più la stessa cosa; altri sostengono persino che il passaggio da uno all’altro sia come aver perso la propria anima gemella o il proprio unico amico. Nel post di partenza della conversazione su Reddit, ora rimosso, un utente diceva che anche dopo alcuni giorni e diversi tentativi «sinceramente GPT-5 sembra emotivamente distante».
OpenAI ha spiegato infatti che tra le altre cose il nuovo modello è stato addestrato per essere più onesto e quindi sembrare più umano e meno servizievole. Quello del rapporto di appagamento che certi utenti sviluppano con il chatbot per via delle sue risposte estremamente accondiscendenti è un tema che l’azienda aveva sollevato già mesi fa. A marzo aveva pubblicato uno studio interno secondo cui gli utenti che sviluppano un legame emotivo con ChatGPT sarebbero una piccola minoranza, ma potrebbero risentirne negativamente a livello di salute mentale. Tutto era cominciato perché l’azienda aveva ricevuto delle critiche per l’eccessivo servilismo di un aggiornamento di GPT-4o, che poi aveva modificato in gran fretta.
Questa volta l’intervento sul tono del chatbot è stato evidentemente più drastico e più notato. Il giornalista Ryan Broderick, esperto di cultura di Internet, ha scritto nella sua newsletter Garbage Day che il fatto che il nuovo modello non sia più servile e adulatorio nei confronti degli utenti è «un problema enorme» per le persone che sono diventate emotivamente dipendenti dal bot.
Lunedì l’amministratore delegato di ChatGPT Sam Altman ha scritto un lungo post su X per difendere la scelta dell’azienda ed esprimere la propria opinione personale sul tema. Ha confermato che l’attaccamento che certe persone sviluppano per il loro chatbot è indubbiamente più forte di quelli visti finora con altre tecnologie, e che questo è un tema che richiederebbe più attenzione da parte di tutti. Ha anche fatto intendere che probabilmente togliere agli utenti la versione di ChatGPT a cui erano affezionati è stato un errore, ma ha ricordato che alcuni di loro – una piccola percentuale – hanno usato finora le intelligenze artificiali «in modo autodistruttivo» e che l’azienda non vuole che questo continui e ne sente la responsabilità.
Nel suo post chiarisce anche che, se da una parte ci sono pochi casi estremi e facilmente riconoscibili di persone il cui rapporto con il chatbot è chiaramente pericoloso per la salute mentale, dall’altra ci sono anche molti casi meno estremi e in cui bisogna fare una valutazione più sottile. «Riesco a immaginare un futuro in cui molte persone si affidano sinceramente ai consigli di ChatGPT per le loro decisioni più importanti. E sebbene potrebbe essere grandioso, mi mette anche a disagio».
In seguito alle varie critiche comunque, un giorno dopo il rilascio di GPT-5, Altman aveva annunciato che avrebbe ripristinato GPT-4o per gli utenti Plus, quelli abbonati, e che si sarebbe impegnato a perfezionare il nuovo modello. Aveva detto che a causa di un inconveniente tecnico «GPT-5 sembrava molto più scemo» di quello che in realtà è, e ha ammesso che il suo rilascio era stato «un po’ più travagliato di quanto ci si aspettava». Dopo che GPT-4o è stato di nuovo reso disponibile, un utente di Reddit ha scritto: «I got my baby back»: il mio amore è tornato.
– Leggi anche: Perché spesso ChatGPT si inventa le cose
Ci sono state critiche anche nella comunità di sviluppatori che si ritrovano sul forum di OpenAI: un utente ha scritto che GPT-5 non ha la cosa che rendeva GPT-4o speciale, cioè la capacità di percepire e restituire le sfumature emotive nelle interazioni con gli utenti. Prima, secondo questo utente, tra le persone e il chatbot si sviluppavano piccole conversazioni o battute, e si condividevano momenti della vita di tutti i giorni: con il passaggio a GPT-5 invece il sistema dà la priorità alla velocità, all’efficienza e alla performance rispetto alla continuità emotiva. Un altro utente ha sostenuto che il cambiamento sia arrivato senza aver tenuto conto delle esigenze degli utenti, e che questa sia un’occasione mancata.