Analisi | La responsabilità degli scienziati per il disarmo tra Nucleare e Intelligenza Artificiale
La responsabilità degli scienziati per il disarmo
tra Nucleare e Intelligenza Artificiale
di Fabrizio Battistelli

Con la morte assistita del trattato New Start che limitava le armi nucleari strategiche a 1500 testate ciascuno, il 5 febbraio di quest’anno Donald Trump e Vladimir Vladimirovič Putin si sono sbarazzati dell’ultimo accordo superstite dell’età d’oro del disarmo (1987-1998), culmine di una sistematica azione di svuotamento degli accordi bilaterali che regolavano numero e caratteristiche degli arsenali delle due superpotenze. Pronti ad accordarsi su vari dossier di loro interesse, lo zar di Mosca e il candidato al Nobel per la pace di Washington non hanno mai trovato il modo di riaprire un tavolo sul controllo degli armamenti nucleari (e neppure convenzionali). Anche la Cina fa resistenza passiva ad un nuovo trattato: Xi Jinping ha fatto sapere di non essere disposto a partecipare a un nuovo accordo sulle armi strategiche se prima USA e Russia non ridurranno i loro arsenali.
Ma per fortuna c’è la società civile. A giudicare dai sondaggi d’opinione, l’idea che il deterioramento dello scenario internazionale è una minaccia per tutti è avvertito da un numero crescente di persone. Poi ci sono le comunità scientifiche, che si avvalgono di informazioni di prima mano e in taluni casi affrontano veri e propri dilemmi di coscienza quando, nei laboratori delle aziende e delle università, devono decidere se prendere parte o meno a progetti che hanno implicazioni militari.
Il grande tema della responsabilità sociale degli scienziati verrà affrontato dai protagonisti, che il 19 febbraio si incontrano a Roma nel convegno Sentieri di pace alla Sapienza (9-18.30). L’obiettivo è riflettere, insieme agli studenti e ai cittadini, sul ruolo che gli scienziati, i fisici in particolare, hanno rivestito nella ricerca che ha portato alla bomba atomica. Dal 7 agosto 1945 quell’evento epocale non ha mai cessato di interrogare i ricercatori e suscitare preziose risposte come quelle del gruppo internazionale Pugwash, instancabile promotore di informazioni e idee sul disarmo nucleare. Ricordiamo che nel 1995 il gruppo ricevette il Premio Nobel per la pace nelle mani del suo segretario generale, il fisico italiano Francesco Calogero, recentemente scomparso.
Il Convegno alla Sapienza è quanto mai opportuno, in quanto risponde ai dubbi e alle critiche di molti studenti circa il giusto atteggiamento che deve assumere un’istituzione come l’università, per definizione dedita al confronto delle idee e al dialogo, così come alla garanzia di autonomia e di contributo alla pace nel fare ricerca. Ed è opportuno anche per il delicatissimo momento attraversato oggi dalle relazioni internazionali. Fondamentali beni comuni come la pace e la sicurezza sono sempre più minacciati da un processo di riarmo che ha ormai una portata globale ed ha per protagonista la tecnologia nucleare al duplice livello ideologico e operativo.
A livello ideologico è in atto una vasta offensiva contro il tabù nucleare, cioè la consapevolezza diffusa tra le popolazioni, e almeno parzialmente condivisa anche da vari governi, che le armi nucleari rappresentino un unicum nella stessa dottrina e operatività della guerra, e quindi vadano tenute distinte dalle omologhe di natura convenzionale. Le rinnovate minacce di impiego dell’arma nucleare (come quelle sempre più spesso formulate o alluse da parte della Russia), nonché alcuni sviluppi delle tecnologie come la miniaturizzazione delle testate, l’aumentata precisione dei sistemi di comando e controllo, e la difficoltà di difendersi dalla velocità dei vettori (missili ipersonici) vanno nella direzione dell’offuscamento del confine tra convenzionale e nucleare e quindi della banalizzazione di quest’ultimo. A ciò si aggiungono (ma si tratta di un discorso che necessita di essere affrontato specificamente) le voci e le ipotesi sempre più frequenti di rilancio del nucleare civile come soluzione economica ed ecologica al problema energetico.
A livello operativo è (o dovrebbe essere) fonte di preoccupazione la convergenza a passi da gigante tra il nucleare e un’altra tecnologia epocale, cioè l’Intelligenza Artificiale (IA). Sperimentata con spietata efficacia dall’esercito israeliano a Gaza, già oggi è operativa la funzione della IA definita come di “supporto alla decisione”. Di questo tipo l’algoritmo Lavender che indica il bersaglio profilato come un combattente e lascia al soldato 30 secondi per decidere se far partire il colpo. Un domani un algoritmo potrà dare l’allarme a un altro algoritmo preposto alla riposta nucleare, con una capacità di reazione incomparabilmente più rapida ed efficiente di qualsiasi operatore, in un dialogo tra macchine nel quale il ruolo umano sarà secondario (se mai vi sarà).
Fantascienza? Non è detto. Perché resti tale sarà necessaria una mobilitazione sempre più consapevole e partecipata dell’opinione pubblica che imponga ai governi la regolamentazione e possibilmente la messa al bando delle armi letali autonome.















