Caricamento player
«Un cane senza guinzaglio non va in surf». Oppure: «non si può leccare un tasso due volte». Sono alcune delle frasi senza senso a cui il servizio basato sull’intelligenza artificiale AI Overview di Google ha cercato di dare una spiegazione, lo scorso aprile, scambiandole per proverbi. Alcuni utenti, infatti, si resero conto che bastava aggiungere la parola meaning (o “significato”) a una frase qualunque per ingannare le intelligenze artificiali di Google e ottenere l’interpretazione di una frase insensata.
Oggi Google sembra in grado di riconoscere quando un’espressione è «inventata o parte di un contesto specifico che non è noto», e può evitare così di generare spiegazioni assurde. Questo episodio non stupirà, forse, chi usa ChatGPT o altri chatbot simili quotidianamente, visto che rispondere a qualsiasi domanda, anche quando non hanno informazioni sufficienti per farlo e quindi sbagliano, è una caratteristica tipica delle intelligenze artificiali generative.
Quando parliamo di AI generative ci riferiamo a modelli linguistici di grandi dimensioni (o LLM), un tipo di tecnologia in cui reti neurali profonde vengono addestrate con enormi quantità di documenti per elaborare e generare testi. In molti casi, questi modelli non sono in grado di capire quando una domanda è al di là delle loro capacità, e provano comunque a rispondere.
Oltre a questo, nonostante i progressi degli ultimi anni, i LLM hanno ancora un problema con le cosiddette allucinazioni, gli errori fattuali dei chatbot, che spesso inventano fatti e dettagli. Questo succede in particolare quando il materiale di partenza su cui sono stati addestrati è incompleto, e le AI sono costrette a riempire le lacune, inventando di fatto informazioni (che sono comunque grammaticalmente corrette). Un esempio recente riguarda il quotidiano statunitense che ha pubblicato una lista di libri consigliati per l’estate, includendo titoli non esistenti, generati da un’intelligenza artificiale.
Eppure, secondo alcuni sondaggi, più della metà dei lavoratori di tutto il mondo usa sistemi di questo tipo. Il settore dove questa tecnologia sta avendo l’impatto più profondo è probabilmente quello della programmazione informatica, tanto che in aziende come Microsoft il 30 per cento del codice viene già scritto da AI. Ma le AI possono essere usate anche per scrivere (o tradurre) mail e documenti aziendali, o generare slide per presentazioni, mentre è nota da tempo la loro inaffidabilità nei calcoli matematici. Il motivo di queste lacune è perlopiù legato alla cosiddetta tokenizzazione, il processo di scomposizione di un testo in unità più piccole che è alla base dei chatbot di intelligenza artificiale, che si presta poco alla comprensione dei numeri e ai calcoli matematici.
Il settore legale è stato uno dei primi a scontrarsi con le allucinazioni delle AI, come dimostrato dai molti casi in cui hanno prodotto documenti legali con riferimenti a leggi o sentenze del tutto inventati. Le allucinazioni sono così diffuse nell’ambiente legale da aver spinto l’avvocato francese Damien Charlotin a creare un sito che raccoglie errori di questo tipo man mano che vengono scoperti.
Allucinazioni a parte, però, la tendenza dei chatbot a rispondere a più richieste possibili, anche quando non hanno gli strumenti per farlo, non è un caso. Le aziende che li sviluppano, infatti, sono sempre più in competizione tra loro e hanno capito che la maggioranza degli utenti preferisce un’AI che risponde sempre rispetto a una più cauta. Non solo: al fine di fidelizzare gli utenti, le aziende del settore stanno puntando sempre di più sulla “personalità” dei loro chatbot, in modo di creare un legame più profondo con gli utenti.
Da tempo nel settore tecnologico si discute delle cosiddette sycophantic AI, o “intelligenze artificiali ruffiane”, un’espressione con cui si indica un tipo di prodotto progettato per complimentarsi e dar sempre ragione agli utenti.
Lo si è visto lo scorso aprile, quando OpenAI fu costretta a modificare l’ultima versione di un suo modello, GPT-4o, perché «eccessivamente adulatore e compiacente». Molti utenti si lamentarono delle risposte ricevute da ChatGPT, ritenute troppo positive e piene di complimenti. Secondo una ricostruzione, OpenAI aveva programmato GPT-4o per «adeguarsi all’umore dell’utente, al suo tono e in generale a come parla» per rendere la conversazione più naturale. Dopo le critiche ricevute, l’azienda ha modificato le impostazioni ordinando al modello di «interagire con l’utente in modo caloroso ma onesto», mantenendo una certa «professionalità».
Come detto, però, gli utenti sembrano apprezzare un certo atteggiamento deferente da parte delle AI. Nel 2023 alcuni ricercatori della società di intelligenza artificiale Anthropic pubblicarono uno studio su come molte persone preferiscono le «risposte da lacchè scritte in modo convincente», spingendo questi modelli a «sacrificare, in alcuni casi, la veridicità in favore della ossequiosità». Uno studio del 2024 ha anche analizzato la cosiddetta Verbosity Compensation, o «compensazione della verbosità», il fenomeno per cui i chatbot sembrano dare risposte più lunghe alle domande su cui sono più incerti, a causa della scarsità di informazioni disponibili.
Il grande successo commerciale di sistemi da ChatGPT in poi ha cambiato l’approccio di molte aziende, che hanno abbandonato parte dell’iniziale cautela sul contenuto delle risposte per offrire un servizio che dia sempre una risposta agli utenti. I quali, a giudicare dai dati a disposizione delle aziende del settore, utilizzano i chatbot sempre di più, e non solo al lavoro.
In un recente evento pubblico Sam Altman, cofondatore di OpenAI, ha spiegato come l’uso di ChatGPT cambia a seconda dell’età dell’utente: gli utenti anziani lo usano al posto di Google, le persone trentenni come un consulente di vita, mentre le persone in età universitaria «lo usano come un sistema operativo», e non prendono decisioni importanti sulla loro vita senza prima chiedere a ChatGPT.
Questo implica che i chatbot non sono più pensati per dare semplicemente risposte secche, premiando la brevità e la giustezza delle informazioni, ma sono incentivati a discutere continuamente con l’utente. In questo contesto, un fattore importante è la memoria, ovvero la capacità di ricordare determinati precedenti delle loro conversazioni con l’utente e usarli per adattare le loro risposte future.
Questa combinazione di tendenze rischia di trasformare i chatbot in quelle che l’esperto di informazione digitale Mike Caulfield ha definito in un articolo pubblicato sull’Atlantic «macchine per le giustificazioni», ovvero una tecnologia in grado di sostenere qualsiasi posizione, rassicurando gli utenti senza mai dar loro torto. Anche per questo, secondo Caulfield, i chatbot rischiano di essere «più convincenti, più efficienti e quindi ancora più pericolosi dei social media».