... segnali di disturbo: tutti noi guidiamo senza problemi ascoltando musica e discutendo coi passeggeri, senza che questi carichi cognitivi impattino negativamente riflessi e capacità di vedere una situazione di pericolo. Tuttavia, appena siamo convolti in qualcosa di più complesso del guidare, la nostra capacità vacilla. Pensiamo alle diverse diagnosi di fronte alla stessa radiografia, alle diverse sentenze di fronte allo stesso crimine, ai diversi giudizi di fronte allo stesso candidato per un’assunzione, e specialmente di fronte alle diverse stime di un futuro prossimo a parità di ingredienti.
Nel caso delle decisioni prese da persone o organizzazioni, abbiamo metodi per riconoscere e mediare il rumore (es. Capitolo 5 di “Noise”, Daniel Kahneman): dividiamo chi ricerca i dati da chi prende le decisioni, separiamo i criteri dalla loro importanza, e cerchiamo di tenere intuizione ed emozioni da parte fino alla sintesi del processo decisionale. Non è detto che questo ci porti sempre alla diagnosi, condanna, assunzione o decisione corrette, ma saranno almeno più prevedibili e di conseguenza affidabili.
Nel caso di decisioni prese da un robot, dobbiamo andare molto, molto più nei dettagli: qui si parte dalla raccolta degli stimoli. Se pensiamo al riconoscimento di un’immagine, il rumore è dato da tutti i pixel che non si illuminano correttamente, danneggiando il contrasto e la rifinitura dell’oggetto ripreso. È per questo che nei nostri cellulari e macchine fotografiche digitali abbiamo un processore di immagine (ISP), che calcola e prevede le correzioni migliori per aumentare la qualità della foto fatta. Da bravi ingegneri conosciamo i dettagli del sensore, le caratteristiche dell’ottica ed anche i problemi del software che processa l’immagine della foto che facciamo noi. Tuttavia, quando dobbiamo processare duecento milioni di fotografie di nei, recuperate da ospedali intorno al mondo per allenare il ranocchio a distinguere tra un neo normale ed uno canceroso, non sappiamo tutte queste informazioni. Abbiamo molto rumore da gestire.
Google ha sviluppato un approccio agnostico, che consente di evitare il rumore relativo ai componenti ottici ed elettronici che hanno raccolto l’immagine. Si tratta di un algoritmo che prova sia a ridurre sia ad introdurre noise, polyblur, che gira in pochi millisecondi e si basa sui miliardi di immagini catturate dall’azienda californiana nel corso degli anni. Quindi chi usa questi programmi oggi ha la possibilità di silenziare (“denoise”) il rumore ed affinare (“sharpen”) la foto che vuole. Per chi vuole approfondire, qui.
Ovviamente un neo è una struttura tridimensionale complessa, ed una foto dall’alto non sarebbe minimamente sufficiente per la diagnosi, anche nelle mani del dermatologo esperto. È pe questo motivo che si riprendono diversi strati di pelle, per costruire il quadro completo della lesione nella sua interezza. Da li inizia un processo che richiede obbligatoriamente la presenza del medico in carne ed ossa, che deve valutare molti altri fattori prima di fare una diagnosi, ma il ranocchio elettronico si sta dimostrando utile strumento (qui), perché da una rappresentazione precisa e fredda del quadro. Il medico non deve più preoccuparsi di riconoscere esattamente cos’ha davanti e paragonarlo alla propria memoria pregressa, perché l’assistente gli da un parere agnostico dopo aver eliminato il rumore e non essendo influenzato troppo dal bias decisionale di noi bipedi.