Vi avevo già parlato di chatbot costruiti sulle basi alla Cognitive Behavioral Theraby (CBT), che consentono al giovane paziente di messaggiarsi con il robot e ricevere indicazioni su come meglio interpretare e quindi reagire a diverse situazioni ed emozioni. Questi robot sono mai un sostituto del terapeuta in carne ed ossa, ma un aiuto. Abbiamo anche visto come gli LLM possano fare un passo in più nel riconoscimento di alcune malattie, specie la depressione, riconoscendo frasi e concetti come problematici, ed allertando quindi il professionista su aspetti importanti per completare la diagnosi.
Oggi arriva un’ulteriore innovazione: il riconoscimento del silenzio e del suono che una persona emette, come fattori probanti la presenza della malattia. Sviluppato in parallelo da gruppi di medici in Cina ed in Francia, si basa sulla scoperta che frequenza, tono e ritmo del nostro parlato sono altamente correlati a condizioni di depressione ed ansietà. In questo caso il ranocchio elettronico non cerca di riconoscere un pensiero od emozione, ma misura i parametri fisici del suono. Per chi volesse approfondire lo studio cinese, è pubblicato qui.
Con un’accuratezza del 95%, questo tipo di supporto diagnostico evita al medico problemi di bias nell’interpretazione del linguaggio, ed integra bene il colloquio col paziente. Specialmente, aiuta dal punto di vista logistico nel diagnosticare pazienti remoti, perché basta che registrino la conversazione da casa e la mandino per l’analisi automatizzata da parte della macchina.
Questo del silenzio, del suono e della sua analisi è un campo affascinante anche al di là dell’applicazione medica, ed ora sta anche entrando nel mondo lavorativo per aiutare in diversi ambiti dove il carico cognitivo è intenso. Si va dal rumore bianco che aiuta a concentrarsi e migliorare nelle funzioni esecutive, all’uso di frequenze diverse tra l’uno e l’altro orecchio per rilassare e migliorare il nostro accesso alla memoria, alla mascheratura del rumore o l’utilizzo di musica rilassante per eliminare le distrazioni.
Nel cervello misuriamo onde alfa che portano al rilassamento, beta per aumentare l’allerta e teta per dare spunti di creatività, e la corteccia uditiva della nostra zucca svolge un ruolo primario nel migliorare i processi cognitivi e le nostre performance. Se già da qualche anno è vietato ascoltare musica nelle gare podistiche, perché viene equiparata al doping, oggi miglioriamo la conoscenza di come mente e cervello processano i suoni, sia quelli ascoltati sia quelli che emettiamo.
Cominciano ad emergere call center e sale di controllo dove l’operatore assorbe segnali visivi ed uditivi per migliorare l’attenzione: l’operatore accoppia la percezione di quanto vede muoversi sugli schermi con rumori che concentrano la sua attenzione su alcuni segnali. Così facendo riesce a stare attento più a lungo ed arriva a fine turno senza sclerare. Come sempre automazione e digitale, se utilizzati per migliorare le condizioni lavorative, vuoi del terapeuta alle prese con un paziente, di un operatore di call center con un cliente imbizzarrito, di un analista di fronte a centinaia di allarmi di cybersecurity, sono un investimento corretto.