Pur rappresentando il 2% del nostro peso, il cervello richiede il 20% dell’apporto energetico del nostro corpo e metà degli zuccheri che assorbiamo, perché a processare dati, muoverli tra le nostre sinapsi, pensare e ricordare, in un flusso elettrico e bio-chimico continuo, serve energia. In ogni caso un consumo minimo, in confronto a quello richiesto dall’intelligenza artificiale.
Un ranocchio elettronico con capacità di calcolo simili al nostro cervello, un exaflop, ossia un miliardo di miliardi di operazioni al secondo, richiede 20 Megawatt per girare, un milione di volte la nostra testolina. È per questo motivo che, seppure fosse possibile prendersi in casa un robot bambino, da far crescere in famiglia con voi ed insegnarli tutte le nostre attività, avreste un piccolo problema con la bolletta: dovreste avere una centrale elettrica dedicata a casa vostra per tener le luci accese ed il cervello artificiale in funzione.
Tralasciando per un secondo il fatto che abbiamo quasi finito i dati freschi con cui allenare gli LLM, almeno in inglese, la strada verso un’intelligenza minimamente paragonabile a quella umana, quella che chiamiamo generale (Intelligenza Artificiale Generale, IAG) richiede un incremento della potenza di calcolo di altri ordini di grandezza. Per chi volesse approfondire, qui.
Quando leggiamo un giornale, a circa 250 parole al minuto, processiamo quello che un LLM fa con 6 gettoni (token) al secondo, ovvero $2.600 di consumo elettrico in un’ora. Il problema è che mentre noi capiamo tutto del giornale, sapendo di cosa trattano i diversi articoli, il ranocchio elettronico deve ancora iniziare a capire cos’ha letto, e necessita di centinaia di migliaia di altri gettoni per farlo. Per produrre questa marea di token, servono GPU potenti, una marea di server, ed una simpatica centrale nucleare a disposizione, o ettari di pannelli solari.
Come con tutte le tecnologie, il costo dell’allenamento e dell’inferenza degli LLM sta diminuendo velocemente, ed investitori specializzati come Ark prevedono una riduzione del 75%, con la prospettiva di portare il costo dell’allenamento di un modello da $100 a $25 milioni entro un anno. L’impressione che si ricava parlando con gli esperti è che ci sia tantissima fuffa in giro, che investitori e multinazionali debbano continuare ad illuderci di chissà quali passi avanti nell’avvicinarsi alla vera intelligenza artificiale generale, altrimenti casca il castello di carte e con lui i valori di borsa di Nvidia, Microsoft e compagni.
A ben vedere gli investimenti degli ultimi 18 mesi hanno portato a modelli LLM solo marginalmente migliori dei precedenti, e questo giustamente induce a pensare che stiamo plafonando il miglioramento di questa tecnologia. Nella mia esperienza personale, avendone allenato uno specializzato sul supporto clienti, per aiutare gli agenti a risolvere prima e meglio i problemi dei clienti, ho visto che il miglioramento è importante ma breve nel tempo, e quando anche i concorrenti hanno capito il trucco, il tuo vantaggio competitivo svanisce.