Di fronte allo strapotere del Golia chat-GPT si sprecano i soloni di sventura che ammoniscono che per l’Europa è oramai tardi, che non ce la si farà mai a competere attraverso un large language model continentale, men che meno italiano.
Sbagliano.
È questione del modello sociale e formativo in cui gli LLM atterreranno compiutamente, al di là degli esercizi “dietro le quinte” più o meno dichiarati a cui in molti ci dedichiamo oggi.
Chat-GPT ambisce a rendere fruibile lo scibile umano che raggiunge con le sue reti mangia dati. Tra queste anche i dati che gli conferiamo ogni volta che lo interroghiamo e vogliamo adattare le sue risposte al nostro contesto, conferendoglielo. In sostanza ambisce a rispondere a qualsiasi domanda su qualsiasi argomento, al meglio.
Per questo OpenAI, la casa madre, è costretta ad addestrarlo su immense quantità di dati con enorme dispendio energetico-finanziario. Pare che l’ultimo addestramento costerà 7 miliardi di dollari, che saranno commercialmente recuperati, si intende.
Un approccio come questo marginalizza le potenzialità di noi “formichine umane”, nella nostra lenta ma inesorabile crescita cognitiva. Per perseguire il nostro progetto di affermazione personale noi studiamo, apprendiamo, ci specializziamo, lavoriamo, nel tempo. Nel farlo incontriamo pacchetti formativi via via più complessi che vengono a caratterizzarci professionalmente e umanamente.
È in questo contesto e prospettiva che auspico l’avvento di una “personal AI” che accompagni gli individui lungo la loro vita, evolvendo con loro, immagazzinando per render fruibili dati nelle scuole, università e ambienti lavorativi che frequenteranno, diventando il loro tutor socratico. Perché questo accada non serve il LLM che la caratterizzerà sappia tutto, lo apprenderà in modo progressivo insieme agli umani a cui si legherà. Serve invece che possa esprimere un buon linguaggio di base e che prenda meno allucinazioni possibili, questo sì. Serve anche che non sia soggetto a logiche commerciali, ma sia un software “aperto” e utilizzabile liberamente per essere poi “chiuso” e protetto sulla nostra persona. Il contrario, insomma, del prodotto della Open AI, che di “open” non ha più nulla essendo avviato alla fase commerciale di incasso.
Novello Davide, il Professor Navigli della Sapienza Università di Roma ha presentato poche settimane fa Minerva 7B, addestrato sul mega computer Leonardo gestito dal CINECA con tecniche avanzate anti-allucinazioni e su un dataset di 2 trilioni di token corrispondenti a circa 1,5 trilioni di parole. Un epsilon rispetto alla base dati di Chat-GPT, ma è ottimizzato per la lingua italiana e potenziato a 7,4 miliardi di parametri (da cui il nome 7B).
Tifo Davide, non solo perché gli LLM aperti si stanno moltiplicando, ma anche perché a indebolire le ambizioni di Golia si sono messi Musk e Zuckemberg, che coi proventi colossali da altre attività stellari o social, sviluppano i loro LLM (Grok e Llama) assicurandone la gratuità, entro certe condizioni.