Quando un’intelligenza artificiale diventa troppo potente?

quando-un’intelligenza-artificiale-diventa-troppo-potente?
Quando un’intelligenza artificiale diventa troppo potente?

Caricamento player

Quando, nel 2019, OpenAI (l’azienda di ChatGPT) e Microsoft fecero un accordo di collaborazione da un miliardo di dollari, dovettero anche decidere cosa sarebbe successo nel caso in cui OpenAI avesse sviluppato una superintelligenza, ovvero un’intelligenza artificiale così avanzata da non poter più essere condivisa con un’azienda concorrente. Nonostante sia alla base di un accordo storico – che è stato recentemente rinnovato – tra due aziende enormi del settore, questa superintelligenza è però ancora oggi qualcosa di puramente teorico.

È detta anche artificial general intelligence (AGI), o intelligenza artificiale forte in italiano, e viene generalmente definita come un’intelligenza artificiale in grado di apprendere qualsiasi compito intellettuale che possa essere imparato da un essere umano. Non esiste però ancora una definizione chiara e condivisa di AGI. A seconda dei casi, viene presentata come un’incredibile frontiera tecnologica che cambierà il mondo o come una cosa da evitare a tutti i costi perché in grado di distruggere la civiltà.

L’accordo del 2019 permetteva a OpenAI di ottenere fondi e usare il servizio cloud di Microsoft, Azure, mentre Microsoft avrebbe potuto integrare le tecnologie di OpenAI nei propri prodotti. L’accordo prevedeva appunto che la collaborazione tra le due aziende si interrompesse automaticamente in caso di creazione di un’AGI, in modo che OpenAI avesse la sicurezza di poter tornare a controllare e usare da sola le proprie tecnologie in una fase potenzialmente così delicata del loro sviluppo.

La «clausola dell’AGI» ha reso i rapporti tra OpenAI e Microsoft sempre più tesi: la prima infatti è arrivata al punto di sperare di poter dichiarare il prima possibile il raggiungimento dell’AGI per non dover condividere più le proprie tecnologie, mentre Microsoft al contrario voleva mantenere le cose come stavano, soprattutto dopo tutti i suoi investimenti in OpenAI. A ottobre le due società hanno fatto un nuovo accordo che tra le altre cose stabilisce che non sarà più OpenAI a determinare di aver creato un’AGI, ma che servirà la verifica di un gruppo indipendente di esperti.

Tuttavia non è affatto chiaro come questo avverrà e secondo quali criteri. Oggi infatti il concetto di AGI è ancora confuso e parte della confusione è stata creata dalle stesse aziende del settore. Da ormai tre anni Sam Altman, capo di OpenAI, ne parla in modo spesso allarmistico come di un’intelligenza che, se non controllata, si rivolterà contro l’essere umano e porterà alla sua estinzione. Questo suo approccio ha contribuito a fare della sigla AGI più un termine di marketing che da linguaggio specialistico.

Di AGI si parla molto ma sempre in modo vago, tanto che il giornalista Andrea Daniele Signorelli si è chiesto su Wired se non sia un’«arma di distrazione di massa» usata dal settore tecnologico «per concentrarsi su un problema che non esiste, distraendo così la società dai rischi concreti dell’intelligenza artificiale, come impatto sul mondo del lavoro, costi ambientali, pregiudizi algoritmici, sorveglianza, tra gli altri».

Eppure la sigla AGI sarebbe di per sé esplicativa: un’intelligenza artificiale generale, infatti, è in grado di operare in ambiti diversi, in modo simile a un essere umano, a differenza di una “narrow AI” (AI ristretta), che è invece specializzata in una specifica mansione.

A coniare l’espressione “artificial general intelligence” fu il ricercatore statunitense Mark Gubrud nel 1997, in un paper in cui si occupava di nanotecnologie: per descrivere i rischi legati alla loro applicazione in contesti militari, li paragonò a una forma ipotetica di AI avanzata, in grado di «acquisire, manipolare e ragionare di conoscenza generale». Negli anni successivi l’espressione si diffuse nell’ambiente accademico e nei forum specializzati, anche se poi per alcuni anni il contributo di Gubrud fu dimenticato.

Secondo Paolo Benanti, professore di Etica dell’intelligenza artificiale alla LUISS e membro del Comitato sull’AI delle Nazioni Unite, è possibile immaginare l’AGI come un sistema in grado di operare in ambiti diversi mantenendo un grado di accuratezza molto alto anche per periodi di utilizzo molto lunghi. Senza lasciarsi andare a previsioni fantascientifiche su superintelligenze in grado di ribellarsi ai propri creatori, una tecnologia simile potrebbe, almeno tecnicamente, essere definita “generale” nella misura in cui le sue capacità non sarebbero “ristrette” a una specifica mansione.

In questo scenario, quindi, l’AGI potrebbe essere vicina ma diversa dalle previsioni apocalittiche di alcuni esperti. Anche un recente saggio pubblicato dal Knight Institute della Columbia University sostiene che l’AGI potrebbe rivelarsi una «tecnologia normale», la cui integrazione nella società sarà tutto sommato graduale. Di conseguenza, «il traguardo dell’AGI si sposterà continuamente sempre più in là».

Non tutti però concordano né sulle tempistiche né sulla possibilità che le tecnologie odierne, in particolare i modelli linguistici alla base di chatbot come ChatGPT, siano gli strumenti giusti per raggiungere il prossimo livello di intelligenza artificiale. Anche un recente studio pubblicato quest’anno da Apple (dal titolo L’illusione del pensiero) ha espresso dubbi sulle effettive capacità di “ragionamento” dei modelli più avanzati oggi disponibili.

Secondo Francesca Lagioia, docente di Informatica giuridica all’Università di Bologna e allo European University Institute di Firenze, l’AGI potrebbe avere una forma del tutto diversa dai sistemi in uso oggi, sviluppandosi a partire da un ecosistema di tecnologie che collaborano tra di loro, e non da un singolo modello linguistico, per quanto avanzato. «Un’AGI dovrebbe imparare continuamente senza dimenticare il passato, mentre i modelli correnti soffrono di catastrophic forgetting (dimenticanza catastrofica), per cui se li riaddestri su un compito nuovo, perdono competenze precedenti», spiega.

Al comitato di esperti toccherà quindi pronunciarsi su un’espressione che viene usata da ambiti profondamente diversi, con aspettative e riferimenti lontani tra loro. «Per la scienza, l’AGI è una traiettoria sfumata, mentre per le aziende uno strumento di potere» dice Lagioia, che nota come il nuovo accordo tra OpenAI e Microsoft non risolva questa ambiguità. «Temo che la domanda non sia tanto cosa sia l’AGI ma chi avrà il privilegio di deciderne il significato, e con quali conseguenze economiche, politiche e sociali».

Related Post