IL Digitale


Stargate, il portone sul futuro

Microsoft è in forte spolvero negli ultimi giorni: ha superato Apple in borsa, Bill si fa riprendere mentre dice a Modi cosa fare a casa sua, e da ultimo annunciano la creazione di Stargate, il portone sul futuro.

Stargate è il nuovo mega datacenter da milioni di GPU ed almeno $115 miliardi di investimento, che Microsoft ed OpenAI si apprestano a costruire in America. Il consumo energetico previsto si misura in diversi Gigawatt, e questo richiede quasi certamente una centrale nucleare per alimentarlo in modo corretto. Tenete conto che uno simile è in progettazione a Dubai ed un altro in Cina, mentre in Europa si legifera a spron battuto sull’intelligenza artificiale.

Ricorderete qualche mese fa che Sam Altman, Deus ex-machina di OpenAI, prospettò l’investimento di $7 mila miliardi per costruire fonderie, fabbriche di chip innovativi ed appunto datacenter giganteschi. Finora Microsoft ha investito $13 miliardi per far girare ChatGPT e Dall-E nei suoi datacenter, ma performance e consumo energetico sono inferiori alle attese: servono GPU migliori, nuove tecnologie per trasferire dati più velocemente e consumando meno, ed un raffreddamento a liquido innovativo per ridurre la bolletta del 40%.

Per capirci, con Stargate Microsoft aprirebbe un datacenter dieci volte più grande di quelli che oggi supportano OpenAI, e pensa di riuscire a farlo nei prossimi quattro anni. Giustamente si son dati un obiettivo iniziale, l’allargamento di uno dei datacenter esistenti entro il 2026, in modo da provare la scalabilità delle nuove tecnologie con altri $10 miliardi di investimento.

Da un punto dei requisiti da assolvere, il problema è complesso. Da un lato Nvidia ha monopolizzato il mercato delle GPU, ed è quindi necessario trovare fonti alternative o riuscire a sviluppare una GPU concorrente. Considerazioni geopolitiche impongono di farlo in America, quindi compito ancora più arduo. Mentre il CEO di Nvidia Jensen Huang raccomanda l’investimento di mille miliardi in nuovi datacenter pieni delle sue GPU, Satya Nadella e Kevin Scott di Microsoft cercano il modo di far da sé, sapendo che i concorrenti come AWS non stanno certo a guardare.

Seconda difficoltà: il principale problema di performance deriva dal network, da quella miriade di cavi che trasportano i dati da una parte all’altra, troppo lentamente e con un consumo eccessivo per la quantità di informazioni da processare.

Terzo problema, il consumo energetico. Se già oggi gli LLM consumano troppo, accrescerli di un ordine di grandezza non può richiedere la stessa proporzione di corrente. Microsoft ed AWS hanno pubblicamente annunciato l’uso di centrali nucleari, ma occorre ridisegnare GPU e network per aumentare l’efficacia del raffreddamento a liquido per non sprecare troppa energia. Gli ingegneri nucleari tornano ad essere richiesti come il pane, sia per l’alimentazione sia per il raffreddamento di Stargate.

La scommessa di questo portone sul futuro si basa sulla capacità di ChatGPT5 di raggiungere la chimera, l’intelligenza artificiale generale. Allo stato attuale delle cose, nonostante l’ottimismo esagerato di Altman, non si vede il traguardo all’orizzonte, anzi; cominciamo a capire meglio i limiti degli LLM. Nelle più recenti evoluzioni sulla diagnostica medica ad esempio, è più efficace, spiegabile e prevedibile l’intelligenza artificiale basata su alberi decisionali che non sugli LLM. Personalmente vedo questo sforzo di decuplicare la capacità dei datacenter come un approccio rischioso: magari funziona, magari perdi una quantità di dollari devastante, creando cattedrali nel deserto.

Un’alternativa interessante, cui ho accennato nel numero scorso, è quella di istruire il robot a fare qualcosa, oltre che la semplice creazione di testi. Cominciamo a sentir parlare di Large Action Models (LAM), come variazioni sul tema LLM dove degli agenti eseguono dei compiti specifici. Questi possono andare dalla creazione di una bozza, alla sua revisione e riflessione dei concetti espressi, alla prenotazione di un viaggio o l’acquisto di un prodotto. Mentre gli LLM sono basati sulla lingua e creano altro testo, gli LAM si occupano di fare qualche cosa, e quindi creare esperienza nuova di quanto han fatto. Questo approccio potrebbe limitare fortemente la necessità di processare grandi moli di dati, riducendo la necessità di dopare i datacenter.

Nulla di straordinario, attenzione: il ragazzino che impara a guidare lo fa al 99% guidando, non studiando il manuale. E dopo pochi mesi molte di quelle azioni che compie per guidare correttamente passano al suo subconscio, non ci deve più pensare. Questo perché il nostro cervello, e la nostra mente, hanno una notevole capacità di imparare dal vissuto. Gli LLM sono ancora molto lontani dalla nostra intelligenza generale, ed investire su Stargate non è detto che sia la scommessa giusta.

© Riproduzione riservata.
Zafferano

Zafferano è un settimanale on line.

Se ti abboni ogni sabato riceverai Zafferano via mail.
L'abbonamento è gratuito (e lo sarà sempre).

In questo numero hanno scritto:

Umberto Pietro Benini (Verona): salesiano, insegnante di diritto e di economia, ricercatore di verità
Angela Maria Borello (Torino): direttrice didattica scuola per l’infanzia, curiosa di bambini
Valeria De Bernardi (Torino): musicista, docente al Conservatorio, scrive di atmosfere musicali, meglio se speziate
Roberto Dolci (Boston): imprenditore digitale, follower di Seneca ed Ulisse, tifoso del Toro
Barbara Nahmad (Milano): pittrice e docente all'Accademia di Brera. Una vera milanese di origini sefardite
Riccardo Ruggeri (Lugano): scrittore, editore, tifoso di Tex Willer e del Toro