Tecnosofia


Intelligenza artificiale e rischio nucleare

Per la prima volta in questi editoriali sulle possibili fini dell’umanità che potremmo costruirci da soli, affrontiamo il caso di un rischio congiunto: quello tra l’uso improprio dell’intelligenza artificiale e l’olocausto nucleare.

Negli ultimi anni, l'uso dell'intelligenza artificiale nei conflitti armati ha sollevato interrogativi etici, strategici e legali sempre più pressanti. Un esempio emblematico è l'impiego da parte di Israele di droni dotati di sistemi d’intelligenza artificiale nel conflitto nella Striscia di Gaza. Secondo diverse inchieste, tra cui quella condotta nel 2024 da +972 Magazine & Local Call, l'esercito israeliano avrebbe utilizzato algoritmi automatizzati per identificare obiettivi associati a Hamas, con una soglia di "accettabilità" dei danni collaterali in termini di vite umane raccapricciante: decine di civili uccisi per terrorista eliminato. Questo tradirebbe un'erosione dei principi fondamentali del diritto internazionale umanitario, in particolare del principio di proporzionalità.

L'adozione dell'intelligenza artificiale per prendere decisioni letali in tempo reale, senza un adeguato controllo umano, pone interrogativi ancor più gravi se traslata nell'ambito della gestione delle armi nucleari. Ma non esiste solo il rischio associato a un uso volontario dell’intelligenza artificiale. Vanno allo stesso modo prevenuti attacchi informatici ai sistemi di comando nucleare. Insomma che lo si voglia o ne si sia vittime, l’intelligenza artificiale non è opportuno che interferisca con chi può premere il fatidico pulsante rosso.

Le armi nucleari, per la loro distruttività assoluta, richiedono un livello massimo di precauzione, responsabilità politica e giudizio umano. Purtroppo, studi recenti indicano che diversi Stati dotati di armi nucleari stanno esplorando l'integrazione di tecnologie d’intelligenza artificiale nei sistemi di comando, controllo e comunicazione (C3), con l'obiettivo di aumentare la velocità di risposta e la resilienza alle minacce. La maggiore velocità decisionale conseguita riduce però il tempo a disposizione per valutazioni critiche, aumenta il rischio di escalation accidentale e favorisce malintesi catastrofici. Già durante la Guerra Fredda vi furono falsi allarmi che solo grazie all'intervento umano non si trasformarono in conflitti nucleari globali, come il caso di Stanislav Petrov che abbiamo visto un paio di puntate fa. La riduzione dei margini di manovra per esercitare pensiero critico, o addirittura l'eliminazione del "fattore umano" da questi scenari potrebbe rivelarsi fatale.

Se da un lato, alcune potenze nucleari, tra cui Stati Uniti e Cina, hanno riconosciuto formalmente, in un incontro bilaterale nel 2023, che "una guerra nucleare non può essere vinta e non deve mai essere combattuta", questo deve valere tanto più quando nel combatterla sono coinvolti algoritmi che compiono scelte automatiche. Cresce il consenso, specialmente nelle Nazioni Unite, sul fatto che occorra porre ordine nei sistemi di arma autonomi letali (LAWS), ma la questione dell'uso dell’intelligenza artificiale nelle forze nucleari rimane ancora marginale nel dibattito multilaterale. Andrebbe probabilmente proibita l'automatizzazione di qualsiasi parte del processo decisionale sulle armi nucleari.

Alla prossima!

© Riproduzione riservata.
Zafferano

Zafferano è un settimanale on line.

Se ti abboni ogni sabato riceverai Zafferano via mail.
L'abbonamento è gratuito (e lo sarà sempre).

In questo numero hanno scritto:

Umberto Pietro Benini (Verona): salesiano, insegnante di diritto e di economia, ricercatore di verità
Angela Maria Borello (Torino): direttrice didattica scuola per l’infanzia, curiosa di bambini
Valeria De Bernardi (Torino): musicista, docente al Conservatorio, scrive di atmosfere musicali, meglio se speziate
Roberto Dolci (Boston): imprenditore digitale, follower di Seneca ed Ulisse, tifoso del Toro
Emanuel Gazzoni (Roma): preparatore di risotti, amico di Socrate e Dostoevskij, affascinato dalle storie di sport
Giovanni Maddalena (Termoli): filosofo del pragmatismo, della comunicazioni, delle libertà. E, ovviamente, granata
Barbara Nahmad (Milano): pittrice e docente all'Accademia di Brera. Una vera milanese di origini sefardite
Riccardo Ruggeri (Lugano): scrittore, editore, tifoso di Tex Willer e del Toro
Silvia Andrea Russo (Cremona): passione per l'antichità, la letteratura, la recitazione, la musica, il canto e la scrittura
Guido Saracco: già Rettore Politecnico di Torino, professore, divulgatore, ingegnere di laurea, umanista di adozione.