Visto che gli LLM son progettati per parlar bene e non per collegare correttamente i loro risultati ai fatti conosciuti, sentite spesso parlare di “allucinazioni” per indicare che han detto il falso.
Questi termini antropomorfici non sono corretti: non è che il robot si sia bevuto un litro di grappa, o assunto droghe illecite, o sia un bugiardo patentato, o i suoi neuroni elettronici facciano le bizze come in un paziente schizofrenico. Molto semplicemente ha elaborato un risultato plausibile e logico, poi il fatto che è falso non lo tange. Di recente una cliente di Air Canada ha chiamato il call center impanicata: causa lutto in famiglia doveva saltare sul primo aereo, al prezzo carissimo del biglietto in quell’istante. Ha chiesto se ci fosse uno sconto per viaggi in caso di lutto, cosa che in effetti alcune compagnie aeree offrono ai loro clienti abituali. Il robot che le ha risposto ha seguito la logica della signora nel fare la domanda: trattandosi di un lutto in famiglia, appare giusto che il biglietto possa esser scontato per venire incontro al cliente nel momento dell’emergenza. Peccato che Air Canada non preveda questo caso, e documenta il divieto anche nelle sue procedure interne. LLM, che aveva “studiato” le procedure, ha comunque dato la risposta sbagliata, dicendo quello che la signora voleva sentirsi dire. In tribunale gli avvocati della linea aerea han provato a dire che la signora non poteva fidarsi di un LLM, lo sanno anche i bambini che allucinano, mentono. Per fortuna il giudice ha bastonato gli avvocati di parte, ed alla signora saranno riconosciuti sia lo sconto, sia le spese processuali.
Se ChatGPT allucina nel 3% delle sue risposte, Gemini nell’8% ed una schiera di programmatori e modellatori lavora alacremente per ridurre ancora questa difettosità, anche noi possiamo aiutare il robot a comportarsi meglio, ad esempio chiedendogli di pensarci bene prima di rispondere, domandando se è veramente sicuro di quello che dice, facendogli la stessa domanda con parole diverse. In questo processo emerge la vera creatività degli LLM, qualcosa che possiamo usare a nostro vantaggio.
Possiamo distinguere alcuni tipi diversi di creatività, ed in tutti casi possiamo comandare al robot che ci aiuti in questo. Uno è immaginare un uso alternativo di cose o concetti abituali, sforzare noi stessi e la macchina a pensare per similitudini e metafore. Un altro è fargli immaginare le conseguenze di scenari ipotetici, in modo da sviluppare alternative mai pensate prima. Altro ancora è chiedergli di generare una lista di parole sconnesse tra loro, ed immaginare come sarebbe possibile collegarle, specialmente in modo visivo.
In un recentissimo studio fatto con 150 partecipanti e ChatGPT, abbiamo visto che la performance cognitiva, paragonata tra persone e robot, è identica. La nostra capacità di sviluppare nuovi utilizzi per qualche cosa, nuovi concetti, di capire gli impatti delle ipotesi fatte, di visualizzare nuovi legami tra concetti, in pratica di fare quel brainstorming che tanto spesso si fa per risolvere problemi e creare nuove soluzioni, è in linea con la macchina, che può lavorare con noi senza problemi. Mai da sola.