Nel nome della “protezione delle generazioni future da conseguenze potenzialmente devastanti”, mercoledì un gruppo bipartisan di legislatori statunitensi ha introdotto una legislazione intesa a impedire all’intelligenza artificiale di lanciare armi nucleari senza un controllo umano significativo.
IL Blocco del lancio nucleare da parte dell’Autonomous Artificial Intelligence Act – introdotto dal sen. Ed Markey (D-Mass.) e Reps. Ted Lieu (D-Calif.), Don Beyer (D-Va.), E Ken Buck (R-Colo.) – afferma che “qualsiasi decisione di lanciare un’arma nucleare non dovrebbe essere realizzato” da AI.
La legislazione proposta riconosce che il Pentagono Revisione della postura nucleare del 2022 afferma che l’attuale politica degli Stati Uniti è quella di “mantenere un essere umano” nel giro “per tutte le azioni critiche per informare ed eseguire le decisioni del presidente di avviare e porre fine all’impiego di armi nucleari”.
Il disegno di legge codificherebbe quella politica in modo che nessun fondo federale possa essere utilizzato “per lanciare un’arma nucleare [o] selezionare o ingaggiare obiettivi allo scopo di lanciare” armi nucleari.
“Poiché viviamo in un’era sempre più digitale, dobbiamo garantire che gli esseri umani detengano da soli il potere di comandare, controllare e lanciare armi nucleari, non i robot”, ha affermato Markey in un dichiarazione. “Dobbiamo tenere gli umani al corrente delle decisioni di vita o di morte per usare la forza letale, specialmente per le nostre armi più pericolose”.
L’intelligenza artificiale è incredibile e ha reso le nostre vite migliori. Può anche ucciderci. Non importa quanto intelligente diventi l’IA, non potrà mai avere il controllo sulle armi nucleari.
Ho introdotto la legislazione bipartisan con @RepKenBuck@RepDonBeyer e il sen @EdMarkey richiedere a un essere umano di lanciare qualsiasi arma nucleare. https://t.co/GWFtldq21N
— Ted Lieu (@tedlieu) 26 aprile 2023
secchio discusso che “mentre l’uso militare dell’IA da parte degli Stati Uniti può essere appropriato per migliorare la sicurezza nazionale, l’uso dell’IA per il dispiegamento di armi nucleari senza una catena di comando e controllo umana è sconsiderato, pericoloso e dovrebbe essere proibito”.
Secondo il Rapporto sull’indice AI 2023 – una valutazione annuale pubblicato all’inizio di questo mese dallo Stanford Institute for Human-Centered Artificial Intelligence: il 36% degli esperti di intelligenza artificiale intervistati si preoccupa della possibilità che i sistemi automatizzati “possano causare catastrofi a livello nucleare”.
Il rapporto ha seguito un febbraio valutazione dalla Arms Control Association, un gruppo di difesa, che l’intelligenza artificiale e altre tecnologie emergenti, inclusi i letali sistemi d’arma autonomi e i missili ipersonici, rappresentano una minaccia potenzialmente esistenziale che sottolinea la necessità di misure per rallentare il ritmo dell’armamento.
“Mentre cerchiamo tutti di affrontare il ritmo con cui l’IA sta accelerando, il futuro dell’IA e il suo ruolo nella società rimangono poco chiari”, ha affermato Lieu in un dichiarazione presentare il nuovo disegno di legge.
“È nostro compito come membri del Congresso avere una lungimiranza responsabile quando si tratta di proteggere le generazioni future da conseguenze potenzialmente devastanti”, ha continuato. “Ecco perché sono lieto di presentare il bipartisan, bicamerale Block Nuclear Launch by Autonomous AI Act, che garantirà che qualunque cosa accada in futuro, un essere umano ha il controllo sull’impiego di un’arma nucleare, non un robot. “
“L’intelligenza artificiale non può mai sostituire il giudizio umano quando si tratta di lanciare armi nucleari”, ha aggiunto Lieu.
Mentre dozzine di paesi supporto trattato sulla proibizione delle armi nucleari, nessuna delle nove potenze nucleari mondiali, inclusi gli Stati Uniti, ha firmato e l’invasione russa dell’Ucraina ha timori risvegliati del conflitto nucleare che erano in gran parte dormienti dalla Guerra Fredda.
Brett Wilkins è l’autore dello staff per Sogni comuni. Con sede a San Francisco, il suo lavoro copre questioni di giustizia sociale, diritti umani e guerra e pace. Questo è originariamente apparso su Sogni comuni ed è ristampato con il permesso dell’autore.
La posta Il disegno di legge bipartisan degli Stati Uniti mira a impedire all’IA di lanciare armi nucleari apparso per primo su Blog contro la guerra.com.
Fonte: www.antiwar.com