Ovviamente questo blocco non sarebbe immaginabile per noi lettori umani, liberi di usare le informazioni che apprendiamo sul NYT per poi elaborare le nostre riflessioni, ma quando un robot legge ed impara tutto, e poi ruba quote di mercato dando informazioni a pagamento, le cose cambiano. Cosa facciamo allora, meglio chiudere ChatGPT e compagni, o lasciarli aperti?
All’inizio, sia ChatGPT sia concorrenti come Llama di Meta, si presentarono come open source, codice aperto, il principio fondamentale per cui ogni programmatore può accedere al software scritto da altri e poi aggiungere e modificare secondo le proprie esigenze, per il bene di tutti. Le grandi multinazionali come Meta, o Microsoft che ha comprato ChatGPT, han sempre fatto buon viso a cattivo gioco, cercando di limitare la vera apertura del codice. Solo così giustificano i prezzi esorbitanti delle proprie licenze e specialmente della loro manutenzione. La dinamica è sempre la stessa: una nuova applicazione nasce come codice aperto, poi quando il numero di utenti e programmatori che la usa cresce abbastanza, la chiudono al pubblico e la vendono al prezzo giusto.
Con i large language model (LLM) come LLama e ChatGPT, la storia si ripete: in questo istante ci sono LLM molto aperti come Bloomz ed Open Assistant, che ti consentono di accedere al codice, ai dati usati per l’allenamento, ai pesi statistici utilizzati per prendere le decisioni ed alle API, e poi i due famosi citati sopra che non ti lasciano fare nulla di tutto ciò. ChatGPT a malapena ti fa vedere la documentazione tecnica ed il modello architetturale, il resto è sottocoperta e tenuto segreto.
Il problema di questa chiusura non è solo l’aspetto economico del prezzo da pagare, ma quello di comprensione e verifica del ragionamento che fa la macchina. Tra marzo e giugno ChatGPT pare sia diventato meno furbo di prima: come mai? Che problemi ci può causare? Se state usando questo programma per scrivere dei contratti (spero nessuno lo usi per diagnosi mediche), rischiate di passare da uno ben fatto ad uno che vi porta nei guai, e non ve ne accorgete.
La salsa segreta degli LLM è l’apprendimento rinforzato con l’uomo (RHLF, reinforcement learning with human feedback), ovvero il passaggio fondamentale con cui gli sviluppatori aiutano la macchina a dare risposte sia statisticamente corrette, sia logiche dal punto di vista della vita reale. È questo che consente di evitare le famose allucinazioni del robot. Se non possiamo vedere e testare questo elemento, come possiamo fidarci? L’indicazione statistica è sicuramente necessaria ed anche sufficiente per decisioni di poco conto, ma se il robot vi sta guidando in mezzo al traffico e si limita a seguire le regole ed al calcolo probabilistico, è meglio riprendiate il volante in mano e controllo dei pedali. Le ultime settimane di traffico a San Francisco ne sono la prova: avendo dato spazio alle automobili a guida autonoma, ci siamo trovati tanti incidenti causati proprio dalla mancanza di buon senso della macchina, che aveva calcolato le probabilità correttamente, salvo tener conto di come si guida li.
Per quanto possibile, il codice aperto è sempre da favorire rispetto a quello chiuso, specie ora che dobbiamo capire come ragiona il robot, prima di fidarci.