Nel nome della “protezione delle generazioni future da conseguenze potenzialmente devastanti”, mercoledì un gruppo bipartisan di legislatori statunitensi ha introdotto una legislazione intesa a impedire all’intelligenza artificiale di lanciare armi nucleari senza un controllo umano significativo.
ILBlocco del lancio nucleare da parte dell’Autonomous Artificial Intelligence Act— introdotto dal sen.Ed Markey(D-Mass.) e Reps. Ted Lieu (D-Calif.), Don Beyer (D-Va.) e Ken Buck (R-Colo.) – afferma che “qualsiasi decisione di lanciare un’arma nucleare non dovrebbe essere realizzato” da AI.
La legislazione proposta riconosce che il PentagonoRevisione della postura nucleare del 2022afferma che l’attuale politica degli Stati Uniti è quella di “mantenere un essere umano” nel giro “per tutte le azioni fondamentali per informare ed eseguire le decisioni del presidente per avviare e terminare l’impiego di armi nucleari”.
Il disegno di legge codificherebbe tale politica in modo che nessun fondo federale possa essere utilizzato “per lanciare un’arma nucleare [o] selezionare o ingaggiare obiettivi ai fini del lancio” di armi nucleari.
“Poiché viviamo in un’era sempre più digitale, dobbiamo garantire che gli esseri umani detengano da soli il potere di comandare, controllare e lanciare armi nucleari, non i robot”, ha affermato Markey in undichiarazione. “Dobbiamo tenere gli umani al corrente delle decisioni di vita o di morte per usare la forza letale, specialmente per le nostre armi più pericolose”.
Mentre dozzine di paesisupportooil Trattato sulla proibizione delle armi nucleari, nessuna delle nove potenze nucleari del mondo ha firmato.
secchiodiscussoche “mentre l’uso militare dell’IA da parte degli Stati Uniti può essere appropriato per migliorare la sicurezza nazionale, l’uso dell’IA per il dispiegamento di armi nucleari senza una catena di comando e controllo umana è sconsiderato, pericoloso e dovrebbe essere proibito”.
Secondo ilRapporto sull’indice AI 2023—una valutazione annualepubblicatoall’inizio di questo mese dallo Stanford Institute for Human-Centered Artificial Intelligence: il 36% degli esperti di intelligenza artificiale intervistati si preoccupa della possibilità che i sistemi automatizzati “possano causare catastrofi a livello nucleare”.
“L’uso dell’intelligenza artificiale per il dispiegamento di armi nucleari senza una catena di comando e controllo umana è sconsiderato, pericoloso e dovrebbe essere proibito”.
Il rapporto ha seguito un febbraiovalutazionedalla Arms Control Association, un gruppo di difesa, che l’intelligenza artificiale e altre tecnologie emergenti, inclusi i letali sistemi d’arma autonomi e i missili ipersonici, rappresentano una minaccia potenzialmente esistenziale che sottolinea la necessità di misure per rallentare il ritmo dell’armamento.
“Mentre cerchiamo tutti di affrontare il ritmo con cui l’IA sta accelerando, il futuro dell’IA e il suo ruolo nella società rimangono poco chiari”, ha affermato Lieu in undichiarazionepresentare il nuovo disegno di legge.
“È nostro compito come membri del Congresso avere una lungimiranza responsabile quando si tratta di proteggere le generazioni future da conseguenze potenzialmente devastanti”, ha continuato. “Ecco perché sono lieto di presentare il bipartisan, bicamerale Block Nuclear Launch by Autonomous AI Act, che garantirà che qualunque cosa accada in futuro, un essere umano ha il controllo sull’impiego di un’arma nucleare, non un robot. “
“L’intelligenza artificiale non può mai sostituire il giudizio umano quando si tratta di lanciare armi nucleari”, ha aggiunto Lieu.
Mentre dozzine di paesisupporttrattato sulla proibizione delle armi nucleari, nessuna delle nove potenze nucleari del mondo, inclusi gli Stati Uniti, ha firmato e l’invasione russa dell’Ucraina hatimori risvegliatidel conflitto nucleare che erano in gran parte dormienti dalla Guerra Fredda.
La posta Il disegno di legge del Senato mira a impedire all’IA di lanciare armi nucleari apparso per primo su Verità.
Fonte: www.veritydig.com