Le funzioni esecutive ci consentono di vagare con la mente, piuttosto che di controllare pensieri intrusici e concentrarci su quello che importa, o continuare a ruminare su un qualche problema finche’ ne veniamo fuori. Qualche mese fa avevo parlato dell’importanza di fare questo mestiere per il nostro ranocchio elettronico, ovvero di essere noi ad istruire il ChatGPT di turno sul come scrivere un testo, sull’importanza della ricerca e validazione delle fonti, sulla necessita’ di fare una bozza per poi rivederla, fino ad arrivare all’elaborato finale. Era ed è un modo efficace per aumentare l’affidabilità e qualità dello scritto.
Oggi OpenAI ci da’ un nuovo strumento, O1, che inizia a prendersi cura in autonomia del treno dei pensieri artificiali, del processo migliore per raccogliere, elaborare e sintetizzare dati in informazioni e conoscenza nuova. Vi raccomando la lettura dello spiegone aziendale, che ovviamente e’ di parte ma spiega bene il funzionamento, qui. Vedrete che il livello di dettaglio del treno dei pensieri è notevole, quello che farebbe un professionista molto attento ai dettagli, e se anche i tempi di risposta passano da 3 a 30 secondi, il guadagno in accuratezza della risposta vale l’attesa.
Ci ho giocato solo qualche ora ed è presto per esprimere un giudizio definitivo: l’ho testato su casi di diagnosi medica, gli stessi che mi avevano portato a scrivervi che farsi diagnosticare da ChatGPT era pericoloso, azzeccando solo il 50% dei casi. O1 va decisamente meglio, tra 80-85% e quindi allineato alla performance di un gruppo di medici. Questo risultato è particolarmente importante perché in studi precedenti le diagnosi di gruppo stanno tra 84.3-85.6%, mentre quelle del singolo medico possono scendere tra 55-63% (c’è una notevole variabilità a seconda delle patologie). Ciò significa che un medico di famiglia, magari lontano da ospedali e colleghi, può avere un valido collaboratore nel rivedere tutti i passi del processo diagnostico, la storia del paziente e suoi famigliari, i dati di laboratorio, le patologie presenti in quel contesto, e formulare una diagnosi mediamente più accurata di quanto potrebbe fare da solo. Per chi volesse approfondire questo argomento, qui.
Sottolineo, prima che qualcuno pensi di autodiagnosticarsi solo con l’aiuto di questo ranocchio elettronico, che la comodità di non andare dal medico o in ospedale non vale assolutamente il rischio di un errore. Molto meglio utilizzarlo, capire i passaggi che ha fatto per arrivare alla conclusione, e poi condividerli con il vostro dottore bipede: potrebbe non apprezzare l’invasione di campo, ma sarebbe costretto a rivedere i propri passaggi logici, e già solo questo sforzo varrebbe la candela.
In America perdiamo 795.000 pazienti l’anno per diagnosi sbagliate, quindi se l’intelligenza artificiale potesse aiutare a ridurre anche solo una percentuale, il vantaggio sarebbe importante.
E chicca finale, se ci chiediamo come fa O1 nei test di intelligenza usati per gli LLM precedenti, qui un bel grafico. Ne vedremo delle belle.