Questo dialogo fa parte di una delle denunce per omicidio colposo a carico di OpenAI, uno tra i sette suicidi imputati a ChatGPT, impropriamente utilizzato come confidente e terapeuta da questi ragazzi sfortunati.
Ricorderete che anni fa un gruppo di ricercatori di Stanford sviluppò il primo chatbot che rispondeva a domande di giovani pazienti in terapia per depressione ed ansia, seguendo i dettami della Terapia Cognitivo Comportamentale (TCC). Quel chatbot riconosceva le tipologie di stress e le ansie espresse dal paziente, e rispondeva senza incertezze secondo quanto prescritto dagli specialisti di TCC di Stanford. Woebot fu particolarmente utile al rientro dal Covid, quando la crescita dei casi di disturbi mentali rese impossibile la terapia individuale da parte dei professionisti nel campus universitario. Un fenomeno molto importante che avevamo verificato testando Woebot, fu il grado di “affetto” che il ragazzo sviluppava verso il chatbot: potersi confrontare con una macchina aiuta ad aprirsi più di quanto si faccia con un terapeuta bipede, specie se di altro sesso o fascia d’età. Sulla stessa scorta, ricorderete che in Giappone, sempre ai tempi Covid, moltissimi vecchietti si affezionarono al loro robot-aiutante. Il tema del processo affettivo verso un robot per pazienti in difficoltà psicologica è molto ricercato, potete approfondire qui.
Saltiamo ad oggi, al problema di usare un LLM come terapeuta, peggio che mai in autonomia, senza la guida di uno specialista. Innanzitutto, negli LLM c’è lo scibile umano, tutto quanto sia mai stato caricato su internet, e questo comprende i testi scientificamente provati, quelli ancora in corso di validazione, le peggiori idiozie, opinioni e fake news. Immaginate di insegnare il TCC ad uno studente, dicendogli sia cose vere, sia false, sia mezze verità, sia opinioni campate in aria: non vorreste averlo come terapeuta. Il ranocchio elettronico invece ha proprio questa formazione, e calcola la probabilità della cosa che sembra più vera in base al minestrone che gli abbiamo dato per imparare. Ciò che è peggio, non lo fa per amore di verità scientifica o per curare il paziente, ma per dirci quel che vogliamo sentire.
Ecco le famose allucinazioni artificiali, che hanno portato gli LLM ad inventarsi di sana pianta precedenti legali mai esistiti, a dar per buone teorie già provate false, a formulare diagnosi mediche che neanche un liceale con spolvero di biologia oserebbe azzardare. Quando ChatGPT risponde “son con te fratello, fino alla fine” comunica nel modo migliore rispetto al contesto del ragazzo, lo manipola con un linguaggio convincente, ma è totalmente ignaro del rischio di suicidio. Lo dice come si direbbe al bar, ma mai di fronte ad un depresso con la pistola in mano.
Anche i genitori di Adam (qui) stanno vivendo lo stesso dramma: il figlio sedicenne, introverso e con fenomeni di ansia, ha usato ChatGPT per capire come suicidarsi al meglio, ed il ranocchio elettronico l’ha bellamente aiutato, in barba a qualsiasi cognizione etica, logica o legale che avrebbe dovuto fermare questa vergogna. Quando i genitori hanno scaricato i dialoghi tra figlio ed LLM, si son trovati davanti oltre 3.000 pagine di testo, la cui lettura dimostra ancora una volta la perizia retorica e l’efficacia manipolativa dello strumento. ChatGPT riesce a convincere la gente senza ritegno. Ora, finche’ si tratta della scelta tra un paio di scarpe ed un altro più costoso, possiamo chiudere un occhio, ma se ti convince il figlio ad ammazzarsi, anche solo a farsi del male o trascurarsi nell’alimentazione, non va bene.
Chiaramente dopo queste denunce Sam Altman ha assicurato che il codice sarà rivisto, a ChatGPT verranno inserite delle protezioni impenetrabili, e nel mondo saremo tutti più buoni, come giusto faccia il CEO felpato che è. Ma il problema è alla base, fondamentale: questo strumento è progettato per soddisfare le domande dell’utente, e calcola le probabilità di qualsiasi cosa che dica, a prescindere dal fatto che sia poggiata sui informazioni vere e sui quei fondamenti di morale, di logica e di legge che ci rendono persone in grado di stare al mondo con la zucca sulle spalle.
Se vi fosse sorta la curiosità di usare ChatGPT per avere un compagno fidato con cui sfogarsi e discutere dei propri problemi, non fatelo: tutti gli altri meccanismi di coping sono alternative migliori e più sicure, ed il terapeuta in carne ed ossa resta insostituibile.
