Kill Switch: in un contesto internazionale sempre più teso e grazie a strumenti tech sofisticati, il rischio di porre fine al mondo come lo conosciamo – anche solo per errore – è sempre più concreto. Parola d’ordine? Kill Switch, per limitare le risposte automatiche
72 minuti. È il tempo in cui si consumerebbe la fine del mondo secondo l’ultimo libro della scrittrice americana ed esperta di questioni di sicurezza nazionale, Annie Jacobsen, Nuclear War: A Scenario.
La narrazione di Jacobsen inizia con un leader nordcoreano che avvia un attacco nucleare lanciando un missile balistico intercontinentale contro il Pentagono, seguito da un altro contro un reattore nucleare in California.
Il raid scatena una risposta frenetica da parte degli Stati Uniti, dove il Presidente, sotto enorme pressione e con appena sei minuti per capire il da farsi, autorizza un attacco di ritorsione contro la Corea del Nord. La decisione innesca una reazione a catena che coinvolge altre potenze nucleari, portando a un catastrofico conflitto globale che provoca miliardi di morti e una Terra devastata e sostanzialmente priva di vita. Il tutto in meno di due ore.
Si tratta del classico scenario, risalente alla Guerra Fredda, che implica la presenza di un attore umano (decisamente poco lungimirante) che decide consapevolmente di scatenare un Nuclear Armageddon. E di altri attori umani che scelgono come rispondere.
Ma se l’escalation fosse, invece, frutto di un semplice processo automatizzato? A far riflettere, nello scenario di Jacobsen, come in molti altri, infatti, è il processo, apparentemente inarrestabile, di azione e reazione innescato dal lancio di un singolo missile nucleare.
Cosa succederebbe se tutto nascesse da un mero errore di calcolo o valutazione?
Leggi anche Ecco Theta Noir, la setta che venera l’AI
La tecnologia come agente di distruzione più o meno consapevole
Facciamo un salto indietro al 1991. Ricordate Skynet del film Terminator 2: Judgment Day? Nella pellicola di James Cameron, è il 2004 quando il sistema di difesa super-avanzato Skynet prende coscienza di sé e lancia un massiccio attacco nucleare globale con l’obiettivo di spazzare via l’umanità dalla faccia della Terra, aprendo così la strada al dominio delle macchine.
Anche in questo caso c’è un soggetto – un’intelligenza artificiale – che preme coscientemente il bottone “fine del mondo”, avendone ben chiare le conseguenze. Scenario realistico? Abbastanza, ma forse ancora troppo fantascientifico.
Secondo alcuni esperti militari, il vero rischio potrebbe, invece, derivare dall’applicazione di sistemi di intelligenza artificiale per scopi prettamente difensivi, come ad esempio garantire una risposta immediata e automatica a un possibile attacco nucleare.
La domanda è semplice: l’AI sarebbe in grado di comprendere un falso allarme? E la sua risposta sarebbe commisurata alla minaccia?
Facciamo un esempio pratico: il 26 settembre 1983, il sistema radar di rilevamento precoce di attacco nucleare dell’Unione Sovietica registra un lancio di missili balistici intercontinentali USAF Minuteman dalle basi degli Stati Uniti. Si tratta di un gigantesco abbaglio dovuto alla presenza di consistenti riflessi solari su nubi ad alta quota, erroneamente identificati come missili.
Eppure, in quei drammatici minuti, solo il sangue freddo e la capacità di analisi dell’ufficiale sovietico Stanislav Evgrafovič Petrov scongiurano l’escalation bellica. “Forse ho deciso così perché ero l’unico ad avere una formazione civile, mentre tutti gli altri addetti erano militari abituati a impartire ed eseguire ordini”, commenterà laconicamente Petrov qualche anno dopo.
Viene da domandarsi: cosa sarebbe successo se al suo posto ci fosse stato un funzionario militare più zelante o, ancora peggio, un sistema automatizzato di risposta nucleare?
Leggi anche AI e Fantascienza: cosa temiamo davvero delle intelligenze artificiali?
Un “Kill Switch” per fermare l’AI
Veniamo, dunque, all’interrogativo fondamentale: come si ferma una risposta automatica? Per quanto banale e, per certi versi paradossale, possa sembrare, la risposta è una sola: ridando potere alla componente umana.
È notizia di questi giorni che lo stato della California, sede di giganti tech come Meta e OpenAI, sta valutando una proposta di legge che richiederebbe alle aziende di dimostrare che i loro sistemi di intelligenza artificiale non rappresentano una minaccia per l’umanità. Un punto focale del progetto è proprio l’implementazione del cosiddetto Kill Switch.
La ratio è quella di garantire un controllo umano ultimo sull’intelligenza artificiale, specie in contesti altamente sensibili: in caso di comportamenti indesiderati o inaspettati, dei tecnici umani potrebbero così intervenire e disattivare il sistema.
Il Kill Switch si configura, quindi, come un’ultima spiaggia per prevenire danni causati da un’AI fuori controllo o semplicemente incapace di valutare appieno gli effetti delle sue azioni, come la progettazione di armi di distruzione di massa o il lancio di attacchi informatici devastanti.
Uno scenario improbabile? Mica tanto, a leggere l’appello firmato dal miliardario Elon Musk e più di 1.000 tra scienziati ed esperti del settore tech nel marzo dello scorso anno, in cui veniva esplicitamente chiesta una pausa nello sviluppo dei sistemi di intelligenza artificiale. Motivo? Concedere il tempo necessario a elaborare una regolamentazione adeguata su scala globale.
Leggi anche: La corsa dell’AI va rallentata e regolamentata. Anche Elon Musk firma la petizione
Nonostante, in linea di massima, l’idea di un controllo ultimo sull’AI sia accettata nella comunità scientifica e politica, non sono poche le voci contrarie a un’eccessiva regolamentazione del settore. Specie tra chi fa Ricerca e tra i tanti investitori che intravedono le enormi potenzialità di crescita del comparto.
La stessa proposta di un Kill Switch sta incontrando la resistenza di numerose aziende e startup che si occupano di sviluppare sistemi di AI, preoccupate che un tale strumento possa soffocare l’innovazione e ostacolare il progresso tecnologico.
Senza considerare le modalità: come si configurerebbe il Kill Switch? Sarebbe un pulsante fisico, un comando software o un protocollo di emergenza? E chi sarebbe incaricato di attivarlo?
Nel dibattito che ne è scaturito, c’è anche chi ha ipotizzato la creazione di un sistema avanzato (ma ancora fedele alle direttive umane), capace di monitorare e disattivare automaticamente il livello inferiore di intelligenza artificiale nel caso di comportamenti rischiosi. Una specie di lotta tra AI fedeli all’uomo e AI ribelli che sa tanto di film Sci-Fi.