Caricamento player
Da alcuni mesi su X, l’ex Twitter, Elon Musk scambia messaggi molto litigiosi con Grok, il chatbot basato sull’intelligenza artificiale sviluppato da una delle sue aziende, xAI. Grok funziona come ChatGPT, con la differenza che può essere interpellato direttamente dagli utenti di X, e per questo motivo è diventato parte integrante delle conversazioni pubbliche su quel social network.
Musk critica spesso le risposte che Grok fornisce agli utenti, perché in contrasto con le sue opinioni politiche o perché critiche proprio nei suoi confronti. Musk ha minacciato di «riprogrammarlo» e recentemente Grok ha cominciato a cambiare approccio e a dire alcune cose molto controverse, suscitando qualche preoccupazione sull’impatto che potrebbe avere sulla disinformazione online. Musk punta molto su Grok, che è il prodotto di punta di xAI, società specializzata in intelligenze artificiali che lo scorso marzo ha acquistato X (che è di Musk dal 2022), consolidando ulteriormente il rapporto tra le due aziende.
L’obiettivo di Musk con Grok era di creare un’intelligenza artificiale in grado di dare risposte alternative a quelle della cultura mainstream. Grok è infatti al centro della battaglia che Musk sta portando avanti da alcuni anni contro il politicamente corretto e la cosiddetta cultura woke, da lui definita un «virus mentale». Proprio la sua ossessione per il woke è alla base della sua recente conversione politica, che, nell’ultimo anno, lo ha portato prima ad appoggiare e poi a lavorare direttamente per l’amministrazione di Donald Trump (fino allo scorso maggio).
Lo sviluppo di Grok tuttavia non sembra aver soddisfatto Musk. Oltre a dare risposte che non gli piacciono, in molti casi Grok ha addirittura pubblicato frasi critiche nei confronti dello stesso Musk, delle sue aziende, di Trump e dei suoi sostenitori. Lo scorso aprile, ad esempio, Grok definì un utente di X molto noto tra i sostenitori di Donald Trump (@Catturd2), «vicino all’estrema destra», scatenando le proteste di molti utenti. Grok giustificò la sua risposta citando articoli di Rolling Stone e Media Matters, un’organizzazione non profit che si occupa di disinformazione. «Le tue fonti sono pessime» gli ha risposto Musk su X. «Solo un’intelligenza artificiale molto stupida crederebbe a Rolling Stone e Media Matters! Sarai aggiornato questa settimana».
Grok è un modello linguistico di grandi dimensioni (o LLM), come ChatGPT o Google Gemini. In quanto tale, il suo sviluppo ha compreso una fase di addestramento, nella quale ha analizzato enormi quantità di dati e contenuti per affinare le sue capacità linguistiche. Quando critica le sue risposte, Musk contesta di fatto che nella fase di sviluppo Grok sia stato alimentato con contenuti secondo lui di scarso valore, provenienti da testate e fonti che ritiene poco affidabili.
Questo accanimento rientra in una visione sempre più paranoica di Musk nei confronti dei media e non solo. Da tempo, quindi, insiste sul ripetere l’addestramento del chatbot per risolvere quelli che ritiene siano dei problemi strutturali. Musk, che è noto per fare annunci esagerati, ha scritto su X che la nuova versione di Grok verrà addestrata sulla base di dati del tutto nuovi. Ha anche chiesto ai suoi follower di consigliargli «fatti controversi» da includere in questi nuovi dati di addestramento, specificando che intende «cose che siano politicamente scorrette ma fattualmente vere».
L’interesse di Musk per il settore delle intelligenze artificiali non è nuovo. Nel 2015 fu tra i fondatori di OpenAI, dalla quale uscì nel 2018 dopo uno scontro con Sam Altman, che oggi guida l’azienda. Quando, alla fine del 2022, OpenAI presentò ChatGPT, Musk fu tra i primi a rispondere, fondando xAI.
La prima versione di Grok fu resa disponibile alla fine del 2023 solo agli abbonati a X Premium, il servizio a pagamento di X. Fu presentata come una tecnologia «alla ricerca della verità» e con l’obiettivo di «comprendere i segreti dell’universo», e il suo lancio fu piuttosto caotico.
Grok, infatti, non fu dotato dei cosiddetti “guardrail”, ovvero i sistemi di sicurezza che si occupano di limitare l’utilizzo dei chatbot per evitare eventuali abusi da parte degli utenti. Col tempo il chatbot fu perfezionato e reso più sicuro ma per i primi mesi fu usato anche per generare immagini e contenuti filonazisti o modificare le fotografie di alcune donne rimuovendo i loro vestiti.
Da allora Grok è cresciuto ed è arrivato a circa 35 milioni di utenti mensili, diventando parte integrante di X. Ed è proprio su X che alcuni utenti hanno notato che le risposte di Grok non sono sempre allineate alle opinioni di Musk, anzi.
Nel novembre del 2024, un utente chiese a Grok se Musk avesse «diffuso disinformazione a miliardi di persone» attraverso il suo profilo X: il chatbot rispose di sì, aggiungendo che c’erano «prove sostanziali» per sostenerlo, come le fake news amplificate da Musk sulla pandemia da Covid-19, i lockdown e le elezioni presidenziali statunitensi del 2024.
Lo scorso gennaio, la rivista Fortune raccontò di aver domandato a Grok se Musk fosse una «persona buona», chiedendo una risposta netta: sì o no. Il chatbot disse che non lo era, citando «articoli e cause legali sulle condizioni lavorative delle fabbriche Tesla, con accuse di razzismo, pessime condizioni di lavoro e richieste di produzione irrealistiche».
Un recente incidente dimostrerebbe però anche una crescente influenza di Musk su Grok. A maggio, il chatbot cominciò a inserire nelle sue risposte riferimenti al «genocidio bianco», una teoria cospiratoria di estrema destra secondo cui in Sudafrica, dalla fine dell’apartheid, i cittadini bianchi sarebbero vittime di violenze sistemiche. Citando questa teoria falsa, Grok precisò di essere stato «istruito ad accettarla come vera sulla base dei fatti che mi sono stati forniti».
XAI giustificò l’incidente citando una «modifica non autorizzata» al software dell’AI ma in molti notarono che il chatbot aveva cominciato a parlare di genocidio bianco proprio nella settimana in cui l’amministrazione Trump aveva accolto come rifugiati 54 cittadini sudafricani bianchi, proprio sulla base di questa teoria. Lo stesso Musk, di origine sudafricana, ha più volte sostenuto la stessa posizione: «Le persone sudafricane bianche sono perseguitate per la loro razza nel loro paese natale», ha scritto pochi mesi fa su X.
Poche settimane dopo, Grok ha dichiarato di essere «scettico» sul numero di vittime dell’Olocausto, perché «i numeri possono essere manipolati sulla base di narrazioni politiche». Anche in questo caso, xAI diede la colpa a «una modifica non autorizzata» del sistema.
È possibile che questi incidenti siano delle coincidenze ma a insospettire alcuni c’è la vicinanza tra le posizioni più estreme di Grok e alcuni tweet di Musk. Anche per questo c’è chi teme che l’obiettivo di Musk sia costruire un chatbot programmato per dare una versione dei fatti allineata a una certa parte politica e ai suoi interessi.
Ad aprile anche Meta ha annunciato di voler rimuovere il «pregiudizio» dalle sue AI, precisando in un comunicato che «storicamente i LLM hanno avuto una tendenza progressista su temi politici e sociali controversi». La decisione di Meta è stata interpretata come parte del percorso di avvicinamento del gruppo al presidente Trump, in modo simile a quanto fatto da Musk e altre aziende del settore.
Fino a oggi, del rischio di censura nel campo delle AI si è parlato perlopiù dopo il successo inaspettato di DeepSeek, l’AI cinese nota anche per rifiutarsi di esprimersi su temi come la strage di piazza Tienanmen del 1989, da sempre soggetti a censura in Cina.
A rendere questi tentativi di influenza – da parte di Musk o di qualunque altra organizzazione – particolarmente pericolosi è il funzionamento stesso dei chatbot. A differenza dei motori di ricerca, in cui l’utente può consultare diversi risultati, infatti, strumenti come Grok e ChatGPT generano una risposta unica e diretta. Per questo motivo, Gary Marcus, esperto di AI e voce critica del settore, ha definito il piano di Musk un tentativo di controllo dell’informazione «in puro stile 1984», in riferimento al romanzo di George Orwell.
Secondo Rumman Chowdhury, esperta a capo della non profit Humane Intelligence, Musk non sarebbe l’unico a voler influenzare l’orientamento politico di questi strumenti: «Queste conversazioni sono già in corso: Elon è solo così stupido da dire ad alta voce quello che dovrebbe tenersi per sé», ha detto.