IL Digitale


La bolla continua a gonfiarsi

Dopo aver speso $100 miliardi nel primo trimestre, le multinazionali americane dell’intelligenza artificiale contano di arrivare a oltre $400 miliardi investiti in data center entro la fine dell’anno. Ogni giorno la borsa continua a salire grazie ad annunci sempre più  mirabolanti, da fare invidia ai venditori di tappeti turchi.

Sempre più esperti cominciano ad esser colti da un vago sospetto: e se ci scoppia tutto tra le mani? E poi: vale veramente la pena visto l’impatto che l’intelligenza artificiale potrebbe avere sul resto dell’economia, quando la stima è al massimo il 20%? Scommessa rischiosa.

Ci sono aspetti tecnici ed economici su cui riflettere. Vi ho già raccontato come le ultime versioni dei Large Language Model (LLM), con miliardi di parametri che girano su chiplet progettati apposta per questi carichi di lavoro, offrono performance solo parzialmente migliori delle versioni precedenti.

Esattamente come capitato per l’ultimo iPhone, accolto tra gli sbadigli dei partecipanti al lancio, anche per l’ultimo ChatGpt è venuto un abbiocco post-prandiale a chi provava a capire quali miglioramenti si trovava effettivamente fra le mani. Se gli LLM sono su un binario morto, continuare a spingere su consumi elettrici e processori sempre più specializzati e performanti, è spreco in purezza.

L’avvento degli agenti sta dimostrando un evoluzione che avevo prospettato su questa rubrica: i Large diventano Small Language Model (SLM). Per forza: se un agente deve riassumere dei documenti, non ha bisogno di accedere allo scibile di internet, che lo farebbe pure allucinare; bastano centinaia di migliaia di parametri, un milione al massimo. In questi giorni NVIDIA s’è data la zappa sui piedi: ha presentato un SLM con nove milioni di parametri che va molto meglio di Llama (LLM di Meta) che invece ne ha 70 miliardi, panico. Nel momento in cui gli SLM funzionano meglio con mille volte meno parametri meglio progettati, è chiaro che investire in mega datacenter diventa un azzardo imprudente. Pensate che il primo ChatGPT aveva 117 milioni di parametri, questo 1.800 miliardi.

Anche lato economico ci sono fattori che giocano a sfavore di questa bolla. Quando nel 2021 ho lavorato su un LLM per il supporto di agenti del customer care, e nel 2023 altri concorrenti hanno adottato la stessa soluzione, subito ho registrato un miglioramento delle performance dovuto al maggiore apprendimento. Tuttavia, dopo alcuni mesi ho visto che il vantaggio competitivo era finito: per forza, stavamo lavorando tutti allo stesso modo. Chiaro: se un ranocchio elettronico solo guida l’esecuzione dello stesso processo in diverse aziende, come fai a pretendere che una faccia meglio dell’altra? Questo spiega migliaia di licenziamenti nel settore: appena il cavallo su cui hai puntato sembra non essere quello vincente, lo elimini.

Inoltre, la legge dei rendimenti decrescenti ci insegna che, quando un fattore di produzione viene aumentato, la produzione marginale di beni e servizi diminuisce. Questo significa che, dopo un certo punto, l'aumento dell'input non porterà a un incremento proporzionale della produzione totale. Anche con il ranocchio elettronico vediamo lo stesso fenomeno: più aumento i fattori che la producono, più lentamente migliorano le performance. Ed anche nella sua adozione, dopo che tutti iniziano ad usare la stessa intelligenza artificiale, ovviamente diminuisce il miglioramento della competitività.

Questo articolo non significa che investendo sulle azioni di questa o quella multinazionale si perda di sicuro, al contrario. Tuttavia bisogna pensare a questo settore come per le criptovalute: molto rischioso e soggetto a forti oscillazioni. Occhio alle scommesse.

© Riproduzione riservata.
Zafferano

Zafferano è un settimanale on line.

Se ti abboni ogni sabato riceverai Zafferano via mail.
L'abbonamento è gratuito (e lo sarà sempre).

In questo numero hanno scritto:

Umberto Pietro Benini (Verona): salesiano, insegnante di diritto e di economia, ricercatore di verità
Angela Maria Borello (Torino): direttrice didattica scuola per l’infanzia, curiosa di bambini
Valeria De Bernardi (Torino): musicista, docente al Conservatorio, scrive di atmosfere musicali, meglio se speziate
Roberto Dolci (Boston): imprenditore digitale, follower di Seneca ed Ulisse, tifoso del Toro
Barbara Nahmad (Milano): pittrice e docente all'Accademia di Brera. Una vera milanese di origini sefardite
Riccardo Ruggeri (Lugano): scrittore, editore, tifoso di Tex Willer e del Toro
Guido Saracco: già Rettore Politecnico di Torino, professore, divulgatore, ingegnere di laurea, umanista di adozione.