Ecco dimostrato il vantaggio degli LLM, che hanno una memoria infinita e possono assorbire senza problemi tutto lo scibile che viene pubblicato in questa o quella disciplina. Per stare nel medicale, ogni 76 giorni raddoppiamo la conoscenza disponibile, ormai diventata impossibile da insegnare completamente. Le recenti innovazioni sull’efficienza dell’insegnamento dell’intelligenza artificiale, da DeepSeek che è costato un decimo rispetto a Llama 3.1, fino a S1 che a sua volta è costato un milionesimo di DeepSeek, rendono questi strumenti disponibili a chiunque, non solo il sofisticato centro di ricerca sperimentale, ma qualsiasi persona collegata ad internet.
In questa memoria infinita si nascondono due problemi. Il primo è della qualità dell’informazione peggiorata proprio dalla sua quantità. Nessuno specialista si legge 150 pagine al giorno, ma ognuno si affida a specifiche pubblicazioni, scuole di pensiero, aree di ricerca e di interesse, per cui le pagine che leggono sono poche e vanno nella stessa direzione. Gli LLM invece fanno la media del pollo di tutto quanto hanno nella loro infinita zucca elettronica, e così facendo ci mettono a rischio di avere un’informazione fallace. Per mitigare questo problema, è fondamentale conoscere il “pensiero” del robot, ossia i passaggi logici che fa quando cerca, sceglie e poi riassume le informazioni richieste. Il medico ha una lunga esperienza nello scremare, nel passare da deduzione (dall’universale al particolare), a induzione (da particolare ad universale) ad adduzione (dal caso all’universale) e poi scegliere l’opzione migliore. Queste sono le tre forme di inferenza che fa la nostra zucca, e che oggi può fare anche il ranocchio elettronico.
Il secondo problema è la trappola dell’idiota. Se il nostro assistente artificiale si dimostra affidabile, basta poco tempo e noi cominciamo a prendere delle scorciatoie, a fidarci del suo funzionamento. Teniamo conto che il pensiero è linguaggio: quando parliamo o scriviamo stiamo pensando. Se all’improvviso il robot ci rigurgita parole e ci troviamo la pappa fatta, non pensiamo più, e poco alla volta diventiamo idioti. Caratteristica questa che non è problematica per chi decide del nostro futuro geopolitico, ma per medici, piloti o ingegneri sarebbe meglio evitare. Un esempio di questo fenomeno sono quegli autisti che guardano i film mentre il veicolo a guida autonoma li porta in giro, fino a quando si schianta perché non hanno avuto il tempo di reagire all’imprevisto. Si son fidati troppo dell’intelligenza artificiale, patatrac.
Come mitigare questi due problemi? Da un lato utilizzando più strumenti, più fonti e più LLM possibili, specie quelli costruiti su lingue diverse dall’inglese. Dall’altro, più importante, mantenendo sempre una sana dose di scetticismo su tutto quanto ci dice il ranocchio, senza mai mollare il volante: noi dobbiamo rimanere in controllo, ed il robot obbedirci come uno schiavo.