In questo momento, senza dover spendere nulla per comprare computer o licenze sofisticate, vi basta ascoltare qualche minuto di conversazione per carpire ogni aspetto della voce di una persona e riprodurla molto fedelmente. Ci sono già casi di truffa, dove una madre riceve la chiamata disperata del figlio adolescente che necessita di un pagamento urgente, salvo poi scoprire che il pupo non sa nulla della cosa: soldi regalati all’hacker di turno. Ognuno di noi si insospettirebbe di fronte a richieste improbabili, ma basta veramente poco per rendere il trucco molto convincente, in questo caso verificando il tipo e frequenza delle spese dell’adolescente.
Da un punto di vista non criminale, e comunque pericoloso, il partito Repubblicano americano ha rilasciato un video prodotto dall’intelligenza artificiale dove si descrive uno scenario tragico nel caso fosse rieletto Biden, tutto raccontato dalla voce di Trump, che al termine del filmato ti chiede una donazione personale. Chi è l’autore, chi ha la responsabilità per le cose dette e per la richiesta di fondi? Non si sa, una generica forma di intelligenza artificiale che non può essere denunciata per falso o per danni. Come sanno chi sono, dove vivo, cosa faccio? Chi ha dato il consenso alla mia privacy? Non si sa, l’intelligenza artificiale ha raccolto i miei dati a spasso per i social network, dati che ho volontariamente dato loro, e che ora consentono un messaggio politico molto personalizzato e molto convincente: manipolativo. E se usassero la voce di un amico? Ancora più convincente e subdola di quella del politico di turno, che ovviamente so non mi chiamerebbe mai personalmente.
Per fortuna, nella vita di tutti i giorni la nostra voce è accompagnata da rumori di sottofondo che disturbano la cattura corretta del suono, e questo significa che ascoltarci per i cinque minuti richiesti per buon campione del suono, non è semplice. Le truffe che vedono il malandrino provare a fingersi qualcun altro, peraltro, funzionano da anni anche senza voci digitali, ma questa nuova frontiera le rende più facili di prima, specie per personaggi che parlino spesso in pubblico e per cui sia più semplice la raccolta della loro voce.
Potete immaginare come l’unione di ChatGPT con questi programmi che generano voci false si presti a creare problemi a politici e personaggi famosi. ChatGPT può esprimersi come se fosse una determinata persona, e se a questo aggiungete una voce fittizia, ma irriconoscibile rispetto a quella vera, il messaggio può diventare molto convincente.
Ovviamente non tutta l’innovazione vien per nuocere, ci sono casi vantaggiosi. Ad esempio in terapia, quando paziente e specialista affrontano un percorso come il cognitive behavioral therapy basato su dialoghi tra i due. In questo caso è tutto sommato prevedibile cosa chiedere e cosa dire in base al passato ed al contesto corrente, ed un robot con la voce giusta serve. Ricordate Woebot, il robot sviluppato a Stanford per il supporto alla cura della depressione: se domani vi potesse parlare con la voce di un caro amico, sarebbe più efficace del semplice scambiare messaggi testuali e sicuramente di aiuto al vostro dottore in carne ed ossa.
Per prudenza non inserisco i link ai tanti strumenti oggi disponibili, gratuitamente, per fare voci false: ma voleste fare uno scherzo simpatico ed innocuo a qualche amico, vi assicuro che il risultato è garantito. Provare per credere.