Caricamento player
Ci sono acquisizioni che si fanno per dominare un mercato e altre che si fanno per inseguire la concorrenza. Quando Facebook comprò Instagram per un miliardo di dollari, nel 2012, l’obiettivo era consolidare la sua posizione tra i social network. Questa settimana Meta, il gruppo che controlla Facebook e Instagram, ha fatto un’operazione simile in un settore in cui, però, è costretta a inseguire.
Meta ha infatti investito 14,3 miliardi di dollari nell’azienda di intelligenze artificiali Scale AI, acquisendone il 49%. In base all’accordo Alexandr Wang, 28enne fondatore e CEO di Scale AI, si unirà a Meta per dirigere un nuovo progetto dedicato allo sviluppo di una “superintelligenza”, un concetto un po’ vago che nasconde la frustrazione di Mark Zuckerberg in questo momento.
Nonostante il recente lancio di Meta AI nei servizi del gruppo, infatti, Meta è rimasta indietro nel campo delle AI, in particolare quelle generative come ChatGPT, e sta provando a recuperare. L’investimento in Scale AI rientra in questo piano.
A differenza di OpenAI e Anthropic, che sviluppano modelli linguistici proprietari (come GPT-4 o Claude), Scale AI si occupa piuttosto di classificare e curare i dati grezzi su cui questi modelli, detti anche LLM, vengono sviluppati. Con questo investimento, quindi, Meta ottiene un grande patrimonio di dati, un bene sempre più ricercato, e un nuovo capo per la sua divisione AI, Wang.
Negli ultimi mesi c’erano stati diversi segnali dei problemi che Meta sta avendo con questa tecnologia. A maggio, il lancio del suo nuovo e più grande modello AI, Behemoth, è stato rimandato perché le sue prestazioni erano state internamente giudicate deludenti. Il mese prima Meta era stata accusata di manipolare i risultati ottenuti da altri due suoi modelli, Scout e Maverick, le cui prestazioni erano state lodate da Zuckerberg stesso.
In quell’occasione, Meta aveva sottolineato gli ottimi risultati ottenuti da Maverick su LM Arena, una piattaforma in cui gli utenti possono mettere alla prova e valutare le capacità dei LLM su diversi tipi di compiti. Meta dichiarò che, in alcune prove comparative, Maverick si era rivelato più veloce ed efficiente di modelli ben più grandi e costosi, dietro solo a Gemini 2.5 Pro di Google. Tuttavia, alcuni utenti notarono che Meta aveva fornito a LM Arena una versione di Maverick diversa da quella pubblica, ottimizzata per ottenere risultati migliori in alcune prove chiave.
– Leggi anche: Le intelligenze artificiali stanno arrivando per prendersi anche la pubblicità
Questo tipo di incidenti ha contribuito a peggiorare la reputazione di Meta nel settore in un momento in cui le principali aziende tecnologiche si contendono un numero ristretto di professionisti altamente specializzati. Pochi giorni fa, il capo di OpenAI Sam Altman ha raccontato che molti suoi dipendenti hanno ricevuto offerte di bonus «fino a cento milioni di dollari» per passare a Meta. «Nessuno dei nostri migliori ha accettato», ha precisato.
Secondo l’Economist, Zuckerberg sarebbe disposto a spendere più di un miliardo di dollari solo per reclutare nuovi esperti del settore e avrebbe avviato discussioni per investimenti o acquisizioni in altre aziende e laboratori di ricerca del settore, come Thinking Machines, Perplexity e Safe Superintelligence.
Il ritardo accumulato da Meta in questo ambito stupisce ancora di più se si tiene conto dei grandi investimenti fatti dall’azienda nell’arco di diversi anni, nel corso dei quali ha usato le AI per ottimizzare la sua distribuzione pubblicitaria o limitare la disinformazione su Facebook, per esempio. Ma a trainare il settore tecnologico in questo momento sono le AI generative, più precisamente i LLM, un tipo di tecnologia su cui Meta ha puntato troppo poco e troppo tardi.
Dal 2013 la divisione di Facebook dedicata alle AI è stata guidata da Yann LeCun, docente della New York University, oggi Chief AI Scientist del gruppo Meta. LeCun è una delle figure di spicco del settore. È uno dei tre «padrini delle AI», insieme agli studiosi Yoshua Bengio e Geoffrey Hinton, con cui nel 2018 ha vinto il Turing Award, considerato il premio Nobel dell’informatica. Ma LeCun è anche uno dei più accaniti critici dei modelli linguistici, che giudica una tecnologia limitata e soggetta a errori.
– Leggi anche: Perché spesso ChatGPT si inventa le cose
Di conseguenza, mentre aziende come Google rispondevano con urgenza al successo di ChatGPT, Meta ha accumulato ritardi sempre più gravi, anche a causa della guida di LeCun.
Il contrasto tra la direzione di LeCun e quella del mercato è evidente nella crisi di FAIR (Fundamental AI Research), il laboratorio di ricerca di Meta dedicato allo sviluppo di intelligenza artificiale avanzata, che ha ricevuto sempre meno attenzioni da Mark Zuckerberg a favore delle AI generative. Anche la versione più recente di Llama, il modello linguistico open source di Meta, è stata sviluppata da una squadra apposita interna all’azienda, GenAI, e non da FAIR.
Secondo alcune fonti interne intervistate da Fortune, PFAIR starebbe «morendo lentamente», tanto che Joelle Pineau, alla sua guida da due anni, ha annunciato la sua uscita lo scorso aprile (pochi giorni dopo l’incidente di Maverick con LM Arena).
La situazione attuale di Meta ricorda, pur con qualche differenza, quella di Apple, a sua volta alle prese con ritardi simili in questo campo. Non è chiaro se l’investimento in Scale AI avrà l’effetto desiderato: lo sviluppo delle AI procede a ritmi frenetici e, anche nelle previsioni più ottimistiche, ci vorranno almeno sei mesi per vedere i primi risultati del nuovo team guidato da Wang, quello che dovrebbe creare una «superintelligenza».