Di recente è stato pubblicato uno studio che ci spiega come Gemini ha letto la cartella clinica del paziente, tenuto debito conto dei progressi giornalieri, della cura prescritta, per poi redigere una bozza di raccomandazione per il malato, sottoponendola al controllo del medico prima di spedirla.
Successone: le 1274 raccomandazioni oggetto della ricerca contengono la ricetta, sono comprensibili e specialmente convincenti, senza aggiungere elementi di rischio per il malato. Gemini in questo caso funziona come agente IA, che in autonomia legge le cartelle cliniche e note del dottore, redige una prima bozza che valuta in autonomia per chiarezza e correttezza dei passaggi logici, rivede da solo per ridurre il rischio di allucinazione, e solo infine propone per la validazione finale al medico in carne ed ossa. Il dottore è contento di questa innovazione, perché da un lato funziona correttamente, dall’altro gli risparmia minuti preziosi di una giornata già normalmente convulsa. Gemini aiuta anche con una dosa di empatia probabilistica, nel senso che scrive nel modo più probabilmente consono a quel paziente, conoscendone contesto e passato. Questo non assolve il dottore dall’esercitare empatia vera, umana, quella che prende tempo e fatica emotiva, e non andrebbe ridotta solo perché ci pensa il robot. L’empatia è fondamentale affinché il paziente segua disciplinatamente le raccomandazioni mediche.
Ecco un uso vantaggioso degli agenti IA, fondato sulla loro capacità di ottimizzare l’uso della lingua, scrivendo più e meglio di quanto normalmente farebbe un medico. Letta questa ricerca, ho deciso di provare lo stesso al lavoro, dove devo chiedere informazioni ad altre aziende. In ogni impresa si sviluppa un gergo, un modo di chiamare le cose, che non è necessariamente chiarissimo per chi lavora altrove: ovviamente scaturiscono incomprensioni e lungaggini, prima di capirsi veramente. Ho sottoposto le mie domande a Copilot Enrich, un agente che s’è letto tutto il contesto di riferimento, ed ha riscritto le mie domande in modo più esteso e molto più comprensibile: verificato che il senso delle domande fosse quello inteso, le ho mandate alla controparte, che ha capito tutto subito. Tra tutti e due abbiamo ridotto uno scambio di informazioni, che prima richiedeva un mese di rimpalli e chiarimenti, a tre giorni.
Sappiamo che è impossibile verbalizzare appieno tutto quanto stiamo pensando, e tantomeno chi riceve la comunicazione può capire tutto quanto legge, perché influenzato dal suo contesto. In pratica, si passa dal 70% nel caso di conoscenza codificata come quella di una prescrizione medica o capitolato ingegneristico, a minimi tra il 10-30% per concetti profondi ed astratti. Se la perdita del 30% è già grave per una comprensione corretta tra medico e paziente, figuriamoci quanto peggiore. L’aiuto degli agenti in questa migliore scrittura, comprensione e comunicazione dei testi è solo benvenuto, tanto per le indicazioni del dottore quanto per altre comunicazioni.
Contraltare di questo uso vantaggioso degli agenti LLM, è il fatto che negli ultimi anni abbiamo patito un proliferare di articoli scientifici falsi o strampalati, da uno su 2800 nel 2023, ad uno su 450 oggi (qui per dettagli). Per forza, se lo strumento riesce a prendere poche idee abbozzate, organizzarle in modo logico, aggiungere riferimenti veri o completamente inventati per dare credibilità ai punti espressi, e scriverti decine di pagine in pochi secondi, è ovvio che puoi diventare una macchina da articoli scientifici. Il problema è che se sei animato da interessi fraudolenti o idiota, pubblichi delle schifezze che rischiano di compromettere la credibilità di interi settori di ricerca.
Quest’uso fraudolento, o quantomeno stupido, succede perché tanto nelle redazioni delle pubblicazioni scientifiche, quanto nelle università, sono stati adottati altri LLM ed agenti anche per filtrare rapidamente le migliaia di paper che arrivano. E questi ranocchi elettronici sono tanto tonti quanto i primi: non riconoscono il vero autore, sono facilmente presi in giro da testi scritti appositamente per loro, e specialmente non capiscono, non comprendono, non sanno davvero. Al proposito, questo articolo da Cornell.
In conclusione, la stessa fantastica capacità degli agenti IA di elaborare un testo chiarendone il significato nel migliore dei modi, può essere usata con notevole vantaggio dove serva la massima chiarezza comunicativa, oppure per falsificare le carte. Ecco una buona ragione per tenere la persona al centro, sia esso il medico che sa cosa deve comunicare, il lavoratore che sa cosa chiedere, il ricercatore che sa cosa pubblicare.
