Con la diffusione di intelligenza artificiale, big data e biotecnologie, cresce il bisogno di regole e responsabilità. Le tecnologie possono ampliare opportunità, ma anche creare disuguaglianze o rischi di controllo. L’etica offre criteri per bilanciare innovazione e valori fondamentali, capire chi è responsabile delle decisioni di un algoritmo, chi della privacy, chi delle implicazioni psicologiche e sulla salute degli individui.
Ma pensateci un momento. Non è forse l’etica stessa una tecnologia?
Lo dico con buona pace di chi vede i principi etici come almeno in parte universali e fondamentali e come tali validi a prescindere. Chi vede l’etica come un sapere che ci aiuta a capire “come dovremmo vivere” in accordo con ciò che siamo.
Come le tecnologie, infatti l’etica è un’invenzione umana che nasce per regolamentare il nostro vivere collettivo e conseguire obiettivi concreti (convivere, cooperare, limitare i conflitti). Essa ci serve a orientare i comportamenti e a risolvere problemi (giustizia, distribuzione delle risorse, gestione della violenza, responsabilità verso l’ambiente ecc.). L’etica evolve nel tempo con i contesti storici, le scoperte scientifiche, le trasformazioni sociali. Ciò che era “accettabile” ieri può diventare inaccettabile oggi (es. schiavitù, pena di morte, ruoli di genere).
L’etica è dunque un insieme di regole e strumenti: non fisici, ma concettuali. In questo senso può essere vista come una “tecnologia sociale” o una “tecnologia del comportamento”. È una tecnologia messa a punto collettivamente, con il contributo di tanti sedimentato nel tempo e adattato ai tempi di volta in volta.
Nel caso dell’intelligenza artificiale, come i Lillipuziani con Gulliver dobbiamo oggi imbrigliare la corsa sfrenata verso la super-intelligenza prima che le nostre piccole funi etiche diventino insignificanti.
È tempo di un’etica che si fa spada e scende concretamente in battaglia, lasciando per un po’ il piano dei principi universali o meglio declinandoli in normative e strumenti di controllo stringenti. È tempo che il perché si fonda con il come senza esitazioni.
Dobbiamo regolamentare e definire quale sarà la simbiosi tra umano e IA accettabile e poi attenerci strenuamente a quel limite, definire presto metriche per misurare l’impatto dell’IA nel mondo reale. Qualche esempio? Obbligare le aziende leader negli sviluppi di questa tecnologia a rendere pubblici i loro sviluppi accettando audit di commissari esterni, tenere registri internazionali sui disastri derivanti dalla errata applicazione dell’IA e le loro cause, un po’ come capita per gli incidenti aerei, varare una agenzia che metta in evidenza i bias (condizionamenti) che i software basati sull’IA mostrano, imponendone la correzione, garantire trasparenza, inclusività e universalità. Dobbiamo cercare di rendere queste regole universali.