Caricamento player
All’inizio del 2023 Sam Altman partì per quella che definì una «missione diplomatica», che lo portò in più di quindici paesi nel giro di pochi mesi. Lo scopo di queste visite era duplice: promuovere la sua azienda, OpenAI, che aveva da poco messo online il chatbot ChatGPT, ma anche rassicurare il pubblico e la politica sui possibili rischi legati allo sviluppo delle intelligenze artificiali.
All’epoca, Altman si diceva molto preoccupato dei progressi del settore, tanto da firmare, con decine di altri scienziati e imprenditori, una lettera aperta in cui si chiedeva di «mitigare il rischio di estinzione causato dalle AI». «Penso che la gente dovrebbe essere contenta che questa cosa ci faccia un po’ paura» disse Altman all’emittente ABC.
I suoi timori erano perlopiù legati al rischio che questi sistemi diventassero tanto avanzati da sfuggire al controllo dei propri creatori, oppure che finissero nelle mani di malintenzionati. In particolare, Altman parlava dei pericoli rappresentati da una Artificial General Intelligence (AGI, in italiano “intelligenza artificiale forte”), concetto fumoso con cui si indica un’AI capace di apprendere qualsiasi compito possa essere svolto da un essere umano.
Se nel 2023 queste preoccupazioni erano al centro del dibattito del settore, però, oggi le aziende di intelligenza artificiale sembrano molto meno preoccupate dagli scenari apocalittici, interessate come sono a espandersi. A causare questo cambiamento, sia nella retorica che nella gestione aziendale, sono stati diversi fattori: tra tutti, l’aumento della concorrenza e degli investimenti nel settore.
In questo contesto anche OpenAI è cambiata: solo nelle ultime settimane ha annunciato che gli utenti maggiorenni potranno discutere di argomenti erotici con ChatGPT; ha reso disponibile Sora, un’app per la generazione di video realistici, e completato la trasformazione da non profit ad azienda a tutti gli effetti. Come ha scritto Karen Hao, autrice del libro Empire of AI, nel giro di pochi anni «OpenAI è diventata tutto quello che aveva detto non sarebbe mai stata».
Di conseguenza, l’azienda ha anche adottato un approccio piuttosto spericolato, presentando prodotti a ciclo continuo e senza troppe cautele. Nei primi giorni dal lancio di Sora, per esempio, il servizio ha consentito di generare video utilizzando le fattezze di personaggi famosi o protetti da diritto d’autore. In risposta alle critiche e alle proteste ricevute, Altman ha chiesto scusa e aggiunto controlli più severi all’applicazione. Secondo Business Insider si tratta di una strategia precisa: «chiedere perdono invece di chiedere permesso».
Un approccio spregiudicato che ricorda quello di Meta. Negli ultimi due anni, infatti, OpenAI ha assunto molte persone provenienti dall’azienda di Mark Zuckerberg, che secondo una stima del sito The Information rappresentano oggi circa il 20% dell’organico dell’azienda.
Questi cambiamenti hanno spinto alcuni membri fondativi di OpenAI ad abbandonarla, come ha fatto Jan Leike, responsabile del progetto di “super allineamento”, dedicato allo sviluppo di AI sicure per le persone. Lo scorso maggio Leike ha annunciato di aver lasciato OpenAI, accusandola di aver sacrificato la sicurezza in favore dei «prodotti scintillanti». Pochi giorni dopo è stato assunto da Anthropic, azienda che sviluppa il chatbot Claude, a sua volta fondata nel 2021 da transfughi di OpenAI.
– Leggi anche: Chi studia l’intelligenza artificiale non la fermerebbe nemmeno potendo
Questo nuovo approccio stupisce ancora di più se si ricorda che OpenAI fu fondata nel 2015 come non profit con l’obiettivo di sviluppare AI «sicure e benefiche» per l’umanità. Secondo i suoi fondatori, tra cui, oltre ad Altman, c’erano Elon Musk e il co-fondatore di LinkedIn Reid Hoffman, la società doveva fare ricerca sull’intelligenza artificiale senza pressioni da parte del mercato o degli azionisti. Il timore, all’epoca, era che un’azienda a scopo di lucro sacrificasse ogni cautela per espandersi nel settore, con conseguenze imprevedibili. Secondo il sito Semafor, i fondatori temevano il predominio di Google, che stava investendo molto nel settore.
A spingere per un approccio meno cauto e moderato sono anche le dimensioni raggiunte oggi dal mercato dell’intelligenza artificiale. Anche se la maggior parte degli investimenti ha finora riguardato le AI generative, come ChatGPT e Google Gemini, queste tecnologie hanno applicazioni enormemente redditizie nel settore militare, della sorveglianza e della sicurezza nazionale. Per questo motivo ogni progresso fatto in questo ambito viene considerato in grado di avere conseguenze notevoli per il primato militare degli Stati Uniti, che sono impegnati in una lotta commerciale con la Cina.
Si tratta di un fenomeno che Gilad Abiri, docente della Peking University School of Transnational Law, ha definito “deregulation mutua assicurata”, espressione che rimanda alla “distruzione mutua assicurata” della Guerra fredda, quando Stati Uniti e Unione Sovietica si dotarono di armamenti nucleari da usare come deterrente reciproco. In questo caso, secondo Abiri, «i politici di tutto il mondo hanno accettato il Sacrificio della Regolazione, la convinzione che smantellare la vigilanza sulla sicurezza porterà alla sicurezza attraverso il dominio dell’AI». Di conseguenza, ogni nazione spinge per eliminare limiti e blocchi che possano rallentare il progresso.
Anche per questo il governo statunitense ha imposto diversi limiti di esportazione alle tecnologie più avanzate e importanti per lo sviluppo dei sistemi AI. In particolare i chip più potenti sviluppati da Nvidia, che in molti casi non possono essere venduti in Cina, con l’obiettivo di rallentare lo sviluppo del settore tecnologico locale e mantenere il dominio nelle AI.
La concorrenza con l’industria tecnologica cinese sta avendo anche ripercussioni culturali nella Silicon Valley e nelle nuove startup che si occupano di AI, tra le quali si sta diffondendo un controverso metodo di lavoro originario proprio della Cina, che prevede orari molto lunghi, considerati necessari per mantenersi al passo con le aziende cinesi.
– Leggi anche: L’intelligenza artificiale è una bolla?
A favorire un approccio sempre meno regolatorio per il settore è quindi anche la politica, soprattutto a partire dalle ultime elezioni statunitensi, vinte da Donald Trump, che hanno determinato l’avvicinamento tra la destra trumpiana e il settore tecnologico, contrario alla regolamentazione delle AI.
A causa di questa polarizzazione, alcuni imprenditori tecnologici vicini a Donald Trump hanno criticato Anthropic, colpevole secondo loro di avere un approccio troppo cauto nello sviluppo di queste tecnologie. Lo scorso mese Jack Clark, co-fondatore dell’azienda, ha pubblicato un post sul suo blog in cui ha ricordato quanto siano delicate le AI: «Alcune persone stanno spendendo enormi somme di denaro per convincerci che l’intelligenza artificiale è solo uno strumento che verrà messo al servizio della nostra economia» ha scritto Clark. «Ma non facciamoci illusioni: ciò con cui abbiamo a che fare è una creatura reale e misteriosa, non una macchina semplice e prevedibile».
Il post ha suscitato la reazione di investitori tecnologici come David Sacks e Marc Andreessen, molto vicini a Trump, che hanno criticato l’azienda su X, l’ex Twitter: in particolare Sacks, il consigliere della Casa Bianca per le criptovalute, l’ha accusata di avere «una sofisticata strategia di influenza regolatoria basata sull’allarmismo». A difendere Anthropic è stato solo Reid Hoffman, co-fondatore di LinkedIn, che ha definito Anthropic una delle poche aziende rimaste a «sviluppare AI nel modo giusto, con premura, in modo sicuro ed enormemente benefico per la società».
Nei giorni successivi Dario Amodei, capo di Anthropic, ha pubblicato un post sul blog dell’azienda sottolineando «il nostro allineamento con l’amministrazione Trump», il sostegno pubblico di Anthropic nei confronti dell’AI Action Plan, il piano nazionale trumpiano per lo sviluppo dell’intelligenza artificiale, oltre che i contratti che legano l’azienda al dipartimento della Guerra, il nuovo nome del dipartimento della Difesa scelto da Trump.
Secondo la giornalista Carola Frediani, cofondatrice del sito Guerre di Rete, la posizione di Anthropic, «che guarda soprattutto alle criticità e alle contraddizioni attuali», è oggi minoritaria, schiacciata «tra chi vuole accelerare nella corsa all’AI a ogni costo, in nome del business e del dominio geopolitico, e chi si preoccupa molto dei rischi futuri di questi modelli».
La radicalizzazione della Silicon Valley ha anche peggiorato sensibilmente i rapporti tra l’Unione europea e le aziende tecnologiche statunitensi, che da tempo si lamentano pubblicamente delle multe che sono state costrette a pagare dalle istituzioni europee e accusano l’Unione di approvare leggi troppo stringenti. Al centro delle critiche ci sono i regolamenti approvati negli ultimi anni, come il Digital Markets Act, che ha imposto maggiori controlli e limiti alle principali piattaforme digitali, e l’AI Act. Quest’ultimo fu approvato nel 2024 per regolarizzare l’uso dei sistemi di riconoscimento facciale, ma contiene anche norme sulle AI generative, distinguendo i sistemi in quattro livelli di rischio con corrispettivi limiti e regole.
A sostenere questa linea offensiva è anche il vicepresidente JD Vance, che ha chiesto apertamente di non regolare il settore tecnologico, in particolare quello delle AI. Molte società tecnologiche hanno inoltre aumentato di molto le spese di lobbying per influenzare le politiche dell’Unione, in un clima di pressioni che sta spingendo sempre più aziende a ritardare di mesi il lancio di nuovi prodotti in Europa, come ha fatto OpenAI con Sora, tuttora non disponibile in Unione europea e Regno Unito.
– Leggi anche: Come sono i chatbot di intelligenza artificiale a confronto
Al tempo stesso, il settore tecnologico statunitense ha aumentato l’ingerenza sulla politica interna. Lo scorso maggio, durante la discussione sul “One Big Beautiful Bill” (la “Grande e Bellissima legge” economica voluta da Trump), fu proposta una norma che avrebbe di fatto vietato qualsiasi tentativo di regolare il settore, sia a livello statale che locale, per i prossimi dieci anni.
La moratoria, fortemente influenzata dalla Silicon Valley, fu respinta dal Senato e finì per portare alla superficie le divisioni interne alla destra trumpiana, venendo criticata da Steve Bannon e dalla deputata estremista Marjorie Taylor Greene. Anche una senatrice statale del Texas, la Repubblicana Angela Paxton, prese le distanze dalla proposta, ricordando l’importanza dei vincoli normativi, «specie quando ci si occupa della tutela dei bambini».
Pochi mesi dopo la bocciatura della moratoria, a ottobre, la California è diventata il primo stato americano ad approvare una legge (detta “SB 53”) sull’utilizzo dei chatbot, pensata soprattutto per tutelare gli utenti minorenni e più vulnerabili. La legge ha reso le aziende che sviluppano queste tecnologie responsabili di eventuali incidenti e introdotto strumenti di tutela per i whistleblower (termine con cui ci si riferisce a chi denuncia alle autorità attività illecite all’interno di un’organizzazione pubblica o privata) provenienti da laboratori di sviluppo del settore.
Nonostante le pressioni politiche, altri stati stanno discutendo disegni di legge simili e qualcosa si muove anche a livello federale: alla fine di ottobre i senatori Josh Hawley e Richard Blumenthal, rispettivamente Repubblicano e Democratico, hanno proposto una legge che renderebbe obbligatoria la verifica dell’età per gli utenti dei chatbot, vietandola ai minorenni. Hawley è anche tra i propositori di un’altra legge, che punta a classificare le AI come prodotti commerciali, rendendo le aziende legalmente responsabili per i danni causati da malfunzionamenti o effetti dannosi dei loro modelli, come accade oggi per un elettrodomestico difettoso.
A ispirare queste iniziative sono timori recenti, meno apocalittici di quelli legati all’AGI. Più che la rivolta di una superintelligenza o l’estinzione dell’umanità, a turbare è piuttosto la diffusione dei chatbot progettati per fare compagnia all’utente, spacciandosi per amici o partner. Questo genere di servizi è già finito al centro di scandali e processi, come il caso del 14enne suicidatosi dopo aver chattato per mesi con un chatbot dell’azienda Character.AI, che la scorsa settimana ha introdotto limiti agli utenti minorenni e imposto la verifica dell’età.
Al tempo stesso, però, aziende come xAI, fondata da Musk, offrono da alcuni mesi “Companions” digitali, dei chatbot personalizzabili e dotati di avatar sexy. Anche OpenAI, come detto, ha preso una direzione simile, annunciando che da dicembre gli utenti maggiorenni potranno usare ChatGPT per discutere di temi erotici. Anche per questo, secondo Frediani, «possiamo smettere di trattare Altman come un guru dell’AGI e considerarlo come un brillante, ambiziosissimo amministratore delegato di una azienda che punta a diventare un impero».

