Home Politica Un nuovo rapporto svela i pericoli della tecnologia militare emergente, dalle armi nucleari AI ai robot killer

Un nuovo rapporto svela i pericoli della tecnologia militare emergente, dalle armi nucleari AI ai robot killer

da Notizie Dal Web

Le tecnologie emergenti, tra cui l’intelligenza artificiale, i letali sistemi d’arma autonomi e i missili ipersonici, rappresentano una minaccia potenzialmente esistenziale che sottolinea l’imperativo delle misure di controllo degli armamenti per rallentare il ritmo dell’armamento, secondo un nuovo rapporto pubblicato martedì.

Il rapporto dell’Associazione per il controllo degli armamenti – intitolato Valutazione dei pericoli: tecnologie militari emergenti e (in)stabilità nucleare – “decomprime il concetto di ‘tecnologie emergenti’ e riassume il dibattito sul loro utilizzo per scopi militari e il loro impatto sulla stabilità strategica”.

La pubblicazione rileva che le potenze militari del mondo “hanno cercato di sfruttare tecnologie avanzate – intelligenza artificiale, autonomia, cyber e ipersonica, tra le altre – per ottenere vantaggi sul campo di battaglia”, ma avverte che è stato detto troppo poco sui pericoli che queste armi rappresentano.

“Alcuni funzionari e analisti ipotizzano che tali tecnologie emergenti rivoluzioneranno la guerra, rendendo obsolete le armi e le strategie del passato”, afferma il rapporto. “Tuttavia, prima che le maggiori potenze procedano rapidamente con l’armamento di queste tecnologie, c’è un grande bisogno che i politici, i funzionari della difesa, i diplomatici, i giornalisti, gli educatori e i membri del pubblico comprendano meglio gli esiti non intenzionali e pericolosi di queste tecnologie .”

Un nuovo @ArmsControlNow Il rapporto valuta la misura in cui l’uso militare della tecnologia emergente potrebbe comportare un uso accidentale di armi nucleari in una crisi e fornisce un quadro per limitare l’arma indiscriminata di tale tecnologia.

Disponibile a https://t.co/gPyDbcaOcdpic.twitter.com/fw55Gczx23

— Arms Control Assoc (@ArmsControlNow) 7 febbraio 2023

Sistemi d’arma autonomi letali – definiti dalla Campagna per fermare i robot assassini come armamenti che operano indipendentemente dal “controllo umano significativo” – sono stati sviluppati da nazioni tra cui Cina, Israele, Russia, Corea del Sud, Regno Unito e Stati Uniti. Il sistema di controllo autonomo Skyborg dall’aria fantascientifica dell’aeronautica americana, attualmente in fase di sviluppo, è, secondo il rapporto, “destinato a controllare più droni contemporaneamente e consentire loro di operare in ‘sciami’, coordinando le loro azioni tra loro con supervisione minima da parte dei piloti umani.”

“Sebbene il rapido dispiegamento di tali sistemi sembri altamente auspicabile per molti funzionari militari, il loro sviluppo ha generato un notevole allarme tra diplomatici, attivisti per i diritti umani, sostenitori del controllo degli armamenti e altri che temono che il dispiegamento di armi completamente autonome in battaglia ridurrebbe gravemente la supervisione umana di operazioni di combattimento, che potrebbero portare a violazioni del diritto internazionale, e potrebbero indebolire le barriere che frenano l’escalation dalla guerra convenzionale a quella nucleare”, osserva il rapporto.

La seconda metà del 20 ° secolo ha visto numerosi nucleare
chiudere le chiamate
, molti basati su interpretazioni errate, limitazioni o veri e propri fallimenti della tecnologia. Mentre tecnologie come l’intelligenza artificiale (AI) sono spesso pubblicizzate come immuni alla fallibilità umana, la ricerca suggerisce che tali affermazioni e arroganza potrebbero avere conseguenze mortali e impreviste.

“Una maggiore dipendenza dall’intelligenza artificiale potrebbe portare a nuovi tipi di errori catastrofici”, un 2018 rapporto dalla Rand Corporation avvertito. “Potrebbero esserci pressioni per usarlo prima che sia tecnologicamente maturo; potrebbe essere suscettibile di sovversione avversaria; oppure gli avversari potrebbero credere che l’IA sia più capace di quello che è, portandoli a commettere errori catastrofici”.

Mentre il Pentagono nel 2020 ha adottato cinque principi per quello che definisce l’uso “etico” dell’IA, molti esperti di etica litigare l’unica linea d’azione sicura è un divieto totale di sistemi d’arma autonomi letali.

I missili ipersonici, che possono viaggiare a velocità di Mach 5 – cinque volte la velocità del suono – o più veloci, fanno ora parte almeno degli arsenali statunitensi, cinesi e russi. L’anno scorso, funzionari russi riconosciuto dispiegamento di missili ipersonici Kinzhal tre volte durante l’invasione dell’Ucraina da parte del paese in quello che si ritiene sia il primo utilizzo in assoluto di tali armi in combattimento. Negli ultimi anni, la Cina ha testato più varianti di missili ipersonici utilizzando palloni ad alta quota appositamente progettati. Anche paesi come Australia, Francia, India, Giappone, Germania, Iran e Corea del Nord stanno sviluppando armi ipersoniche.

Il rapporto avverte anche del potenziale di escalation della guerra informatica e del processo decisionale automatizzato sul campo di battaglia.

“Come è avvenuto durante la prima e la seconda guerra mondiale, le maggiori potenze si stanno affrettando ad armare le tecnologie avanzate prima di aver pienamente considerato – per non parlare del tentativo di mitigare – le conseguenze di ciò, compreso il rischio di significative vittime civili e l’escalation accidentale o involontaria del conflitto”, ha dichiarato Michael Klare, membro del consiglio dell’Associazione per il controllo degli armamenti e autore principale del rapporto, in un dichiarazione.

“Mentre i media e il Congresso degli Stati Uniti hanno dedicato molta attenzione ai presunti vantaggi dello sfruttamento di tecnologie all’avanguardia per uso militare, molto meno è stato detto sui rischi connessi”, ha aggiunto.

Il programma HAWC di DARPA è una conclusione… che si conclude con successo @LockheedMartin#ipersonico missile che vola a più di 300 miglia nautiche e molti dati per il @usairforce. Di più: https://t.co/Yqq2Xl50jnpic.twitter.com/ilNN4xz0z4

—DARPA (@DARPA) 30 gennaio 2023

Il rapporto afferma che gli accordi bilaterali e multilaterali tra paesi che “apprezzano i rischi di escalation posti dall’armamento delle tecnologie emergenti” sono fondamentali per ridurre al minimo tali pericoli.

“Come esempio di un utile primo passo, i leader delle maggiori potenze nucleari potrebbero impegnarsi congiuntamente a evitare gli attacchi informatici” contro i reciproci sistemi di comando, controllo, comunicazione e informazione (C3I), afferma il rapporto. Si raccomanda inoltre un codice di condotta che disciplini l’uso militare dell’intelligenza artificiale basato sui principi etici dell’IA del Pentagono.

“Se le maggiori potenze sono disposte a discutere restrizioni vincolanti sull’uso militare di tecnologie destabilizzanti, alcune priorità hanno la precedenza”, sostiene il documento. “Il primo sarebbe un accordo o accordi che proibiscano gli attacchi ai sistemi nucleari C3I di un altro stato con mezzi cibernetici o tramite attacchi missilistici, in particolare attacchi ipersonici”.

“Un’altra priorità assoluta sarebbero le misure volte a prevenire attacchi di sciami di armi autonome su sottomarini missilistici di un altro stato, missili balistici intercontinentali mobili e altri sistemi di ritorsione di secondo attacco”, continua il rapporto, riferendosi ai missili balistici intercontinentali. “Dovrebbero essere imposte severe limitazioni all’uso di sistemi automatizzati di supporto alle decisioni con la capacità di informare o avviare importanti decisioni sul campo di battaglia, incluso il requisito che gli esseri umani esercitino il controllo finale su tali dispositivi”.

“Senza l’adozione di misure come queste, le tecnologie all’avanguardia saranno convertite in sistemi militari a un ritmo sempre crescente e i pericoli per la sicurezza mondiale aumenteranno rapidamente”, ha concluso la pubblicazione. “Una comprensione più approfondita delle minacce distintive alla stabilità strategica poste da queste tecnologie e l’imposizione di restrizioni sul loro uso militare farebbero molto per ridurre i rischi di Armageddon”.

Brett Wilkins è l’autore dello staff per Sogni comuni. Con sede a San Francisco, il suo lavoro copre questioni di giustizia sociale, diritti umani e guerra e pace. Questo è originariamente apparso su Sogni comuni ed è ristampato con il permesso dell’autore.

La posta Un nuovo rapporto svela i pericoli della tecnologia militare emergente, dalle armi nucleari AI ai robot killer apparso per primo su Blog contro la guerra.com.

Fonte: www.antiwar.com

Articoli correlati