... sarete chiamati domani per la vaccinazione, se darvi un mutuo, se proporvi delle offerte commerciali, se chiedervi di comprare un film od un libro, se approvare la vostra richiesta di una carta di credito. Un qualsiasi burocrate vi dirà che non c’è nulla di meglio di una macchina per decidere, perché obbiettiva, sempre sveglia, mai arrabbiata e specialmente senza pregiudizi. Specialmente perché potrà sempre dare colpa al robot se patite un disservizio.
Se pensate che gli sviluppatori di questi algoritmi sono in stragrande maggioranza bianchi, maschi e giovani che lavorano in pochi posti ben precisi (Silicon Valley, New York, Berlino, Londra, Singapore, Shangai, Tokio), potete immaginare che forse il pregiudizio è proprio parte dello sviluppo degli algoritmi. Se sei una donna nera in America, e ti aspetti che un algoritmo ospedaliero si accorga del tuo infarto in corso, stai fresca, troppo spesso per sempre.
Sempre in USA abbiamo il caso di Sioux ed Apache, che giustamente adottano nomi tradizionali (Toro Seduto) e poi non riescono a fare documenti perché gli algoritmi li considerano falsi. Peggio, Amazon ha dovuto riconoscere che la sua intelligenza artificiale sfavoriva le donne nei colloqui di lavoro. Da dove nasce questo problema? Abbiamo forse a che fare con programmatori razzisti e sciovinisti?
Nulla di tutto ciò: tra felpa, moccaccino, sushi e calcetto in ufficio, i programmatori sono generalmente molto simpatici ed attenti a non urtare la sensibilità di nessuno, non vorrebbero mai causare questi problemi. Un primo problema nasce dalla disponibilità e qualità dei dati a disposizione. Se i neri, vuoi per disponibilità economica vuoi per abitudine, non van dal medico tanto quanto i bianchi, ecco che il computer è portato a pensare che i primi si ammalino di meno ma in modo più grave dei secondi. Ed è cosi che nasce il pregiudizio digitale per cui un paziente nero deve stare veramente male prima di esser preso in cura: un assurdo.
Il secondo problema nasce nella capacità predittiva del robot. Se questo vede che i manager in Facebook sono quasi tutti maschi, bianchi e giovani, cercherà altri candidati simili anche in futuro, prevedendo che questi abbiano più successo degli altri ed altre. Questo fenomeno diventa pericoloso quando pensiamo a Robocop, al robot poliziotto. Nel 2017 il comune di Chicago s’è accorto che mandava automaticamente le pattuglie negli stessi quartieri, col risultato che continuavano a fermare le stesse persone nonostante non avessero nessuna pendenza con la legge.
Aziende come Google hanno provato ad assumere degli esperti di etica in modo da guidare lo sviluppo degli algoritmi in modo più giusto e senza pregiudizi: recentemente li hanno licenziati, mettendo in evidenza come proclami e fatti non vadano sempre di pari passo. Più importante l’aiuto da parte di Unione Europea e Congresso degli Stati Uniti nel regolare ulteriormente il tema della privacy, anche se le aziende digitali hanno mostrato spiccata capacità nell’aggirare i vincoli legislativi.
Per il lettore vale sempre quanto detto in passato: evitiamo di dare una raffigurazione unica di noi stessi, facciamoci almeno quattro personaggi diversi su internet, in modo che gli spioni digitali non sappiano bene come classificarci, e specialmente ricordiamo che tutto quanto mettiamo su internet, ci resta.