Home Cronaca In che modo l’IA potrebbe prendere il sopravvento sulle elezioni e minare la democrazia

In che modo l’IA potrebbe prendere il sopravvento sulle elezioni e minare la democrazia

da Notizie Dal Web

Le organizzazioni potrebbero utilizzare modelli di linguaggio di intelligenza artificiale come ChatGPT per indurre gli elettori a comportarsi in modi specifici?

Il senatore Josh Hawley ha posto questa domanda al CEO di OpenAI Sam Altman in a 16 maggio 2023, udienza al Senato degli Stati Uniti sull’intelligenza artificiale. Altman ha risposto che era davvero preoccupato che alcune persone potessero utilizzare modelli linguistici per manipolare, persuadere e impegnarsi in interazioni faccia a faccia con gli elettori.

Altman non ha elaborato, ma potrebbe aver avuto in mente qualcosa di simile a questo scenario. Immagina che presto i tecnologi politici sviluppino una macchina chiamata Clogger, una campagna politica in una scatola nera. Clogger persegue incessantemente un solo obiettivo: massimizzare le possibilità che il suo candidato, la campagna che acquista i servizi di Clogger Inc., prevalga in un’elezione.

Mentre piattaforme come Facebook, Twitter e YouTube utilizzano forme di intelligenza artificiale per attirare gli utenti trascorrere più tempo sui loro siti, l’intelligenza artificiale di Clogger avrebbe un obiettivo diverso: cambiare il comportamento di voto delle persone.

Come funzionerebbe Clogger

Come un politologo e un studioso di diritto che studiano l’intersezione tra tecnologia e democrazia, crediamo che qualcosa come Clogger potrebbe utilizzare l’automazione per aumentare drasticamente la portata e potenzialmente l’efficacia di manipolazione del comportamento e tecniche di microtargeting che le campagne politiche hanno utilizzato dall’inizio degli anni 2000. Proprio come gli inserzionisti utilizzano la cronologia di navigazione e dei social media per indirizzare individualmente gli annunci commerciali e politici ora, Clogger presterebbe attenzione a te e a centinaia di milioni di altri elettori individualmente.

Offrirebbe tre progressi rispetto all’attuale manipolazione del comportamento algoritmico all’avanguardia. Innanzitutto, il suo modello linguistico genererebbe messaggi – testi, social media ed e-mail, forse includendo immagini e video – su misura per te personalmente. Mentre gli inserzionisti posizionano strategicamente un numero relativamente piccolo di annunci, i modelli linguistici come ChatGPT possono generare innumerevoli messaggi unici per te personalmente e milioni per gli altri nel corso di una campagna.

In secondo luogo, Clogger userebbe una tecnica chiamata insegnamento rafforzativo per generare una successione di messaggi che diventano sempre più propensi a cambiare il tuo voto. L’apprendimento per rinforzo è un approccio di apprendimento automatico, per tentativi ed errori in cui il computer intraprende azioni e ottiene feedback su quale funziona meglio per imparare come raggiungere un obiettivo. Macchine che possono giocare a Go, Chess e molti videogiochi meglio di qualsiasi essere umano hanno utilizzato l’apprendimento per rinforzo.

In terzo luogo, nel corso di una campagna, i messaggi di Clogger potrebbero evolversi per tenere conto delle tue risposte ai precedenti invii della macchina e di ciò che ha appreso sul cambiamento delle menti degli altri. Clogger sarebbe in grado di portare avanti “conversazioni” dinamiche con te e milioni di altre persone nel tempo. I messaggi di Clogger sarebbero simili a annunci che ti seguono su diversi siti web e social media.

La natura dell’IA

Vale la pena notare altre tre funzionalità, o bug.

Innanzitutto, i messaggi inviati da Clogger possono avere o meno contenuti politici. L’unico obiettivo della macchina è massimizzare la quota di voti e probabilmente escogiterà strategie per raggiungere questo obiettivo a cui nessun attivista umano avrebbe pensato.

Una possibilità è inviare ai probabili elettori oppositori informazioni sulle passioni non politiche che hanno nello sport o nell’intrattenimento per seppellire i messaggi politici che ricevono. Un’altra possibilità è l’invio di messaggi scoraggianti, ad esempio annunci di incontinenza, programmati in modo da coincidere con i messaggi degli avversari. E un altro è manipolare i gruppi di amici dei social media degli elettori per dare la sensazione che i loro circoli sociali supportino il suo candidato.

In secondo luogo, Clogger non ha riguardo per la verità. In effetti, non ha modo di sapere cosa sia vero o falso. Modello linguistico “allucinazioni” non sono un problema per questa macchina perché il suo obiettivo è cambiare il tuo voto, non fornire informazioni accurate.

Terzo, perché è a tipo di scatola nera di intelligenza artificiale, le persone non avrebbero modo di sapere quali strategie utilizza.


Il campo dell’intelligenza artificiale spiegabile mira ad aprire la scatola nera di molti modelli di apprendimento automatico in modo che le persone possano capire come funzionano.

Clogocrazia

Se la campagna presidenziale repubblicana dovesse schierare Clogger nel 2024, la campagna democratica sarebbe probabilmente costretta a rispondere allo stesso modo, forse con una macchina simile. Chiamalo Dogger. Se i gestori della campagna ritenessero che queste macchine fossero efficaci, la competizione presidenziale potrebbe benissimo ridursi a Clogger contro Dogger, e il vincitore sarebbe il cliente della macchina più efficace.

Sarebbe possibile evitare la manipolazione elettorale dell’IA se candidati, campagne e consulenti rinunciassero tutti all’uso di tale intelligenza artificiale politica.

Scienziati politici ed esperti avrebbero molto da dire sul motivo per cui l’una o l’altra IA ha prevalso, ma probabilmente nessuno lo saprebbe davvero. Il presidente sarà stato eletto non perché le sue proposte politiche o idee politiche hanno convinto più americani, ma perché aveva l’intelligenza artificiale più efficace. Il contenuto che ha vinto la giornata sarebbe venuto da un’intelligenza artificiale focalizzata esclusivamente sulla vittoria, senza idee politiche proprie, piuttosto che da candidati o partiti.

In questo senso molto importante, una macchina avrebbe vinto le elezioni piuttosto che una persona. L’elezione non sarebbe più democratica, anche se tutte le attività ordinarie della democrazia – i discorsi, gli annunci, i messaggi, le votazioni e lo spoglio dei voti – saranno avvenute.

Il presidente eletto dall’IA potrebbe quindi andare in due modi. Lui o lei potrebbe usare il mantello dell’elezione per perseguire le politiche del partito repubblicano o democratico. Ma poiché le idee del partito potrebbero aver avuto poco a che fare con il motivo per cui le persone hanno votato in quel modo – a Clogger e Dogger non interessano le opinioni politiche – le azioni del presidente non rifletterebbero necessariamente la volontà degli elettori. Gli elettori sarebbero stati manipolati dall’IA piuttosto che scegliere liberamente i loro leader politici e le loro politiche.

Un altro percorso è che il presidente persegua i messaggi, i comportamenti e le politiche che la macchina prevede massimizzeranno le possibilità di rielezione. Su questa strada, il presidente non avrebbe alcuna piattaforma o agenda particolare oltre al mantenimento del potere. Le azioni del presidente, guidate da Clogger, sarebbero quelle più propense a manipolare gli elettori piuttosto che servire i loro interessi genuini o persino l’ideologia del presidente.

Evitare la clogocrazia

Sarebbe possibile evitare la manipolazione elettorale dell’IA se candidati, campagne e consulenti rinunciassero tutti all’uso di tale intelligenza artificiale politica. Riteniamo che sia improbabile. Se venissero sviluppate scatole nere politicamente efficaci, la tentazione di usarle sarebbe quasi irresistibile. In effetti, i consulenti politici potrebbero benissimo vedere l’utilizzo di questi strumenti come richiesto dalla loro responsabilità professionale per aiutare i loro candidati a vincere. E una volta che un candidato utilizza uno strumento così efficace, difficilmente ci si può aspettare che gli oppositori resistano disarmandosi unilateralmente.

Maggiore protezione della privacy aiuterebbe. Clogger dipenderebbe dall’accesso a grandi quantità di dati personali per prendere di mira le persone, creare messaggi su misura per persuaderle o manipolarle e tracciarle e reindirizzarle nel corso di una campagna. Ogni piccola informazione che le aziende o i responsabili politici negano alla macchina la renderebbe meno efficace.


Forti leggi sulla privacy dei dati potrebbero aiutare a evitare che l’intelligenza artificiale sia manipolativa.

Un’altra soluzione sta nelle commissioni elettorali. Potrebbero tentare di vietare o regolamentare severamente queste macchine. C’è un feroce dibattito se tale discorso “replicante”., anche se di natura politica, può essere regolamentato. La tradizione dell’estrema libertà di parola degli Stati Uniti porta molti eminenti accademici a dire che non può.

Ma non c’è motivo di estendere automaticamente la protezione del Primo Emendamento al prodotto di queste macchine. La nazione potrebbe benissimo scegliere di concedere i diritti alle macchine, ma questa dovrebbe essere una decisione fondata sulle sfide di oggi, non l’ipotesi fuori luogo che le opinioni di James Madison nel 1789 dovevano essere applicate all’IA.

La nazione potrebbe benissimo scegliere di concedere i diritti alle macchine, ma questa dovrebbe essere una decisione fondata sulle sfide di oggi, non sull’assunto mal riposto che le opinioni di James Madison nel 1789 fossero destinate ad applicarsi all’IA.

I regolatori dell’Unione Europea si stanno muovendo in questa direzione. I responsabili politici hanno rivisto la bozza della legge sull’intelligenza artificiale del Parlamento europeo per designare “i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne” come “ad alto rischio” e soggetto a controllo normativo.

Un passo costituzionalmente più sicuro, seppur minore, già adottato in parte dall’art Regolatori europei di Internet e dentro California, è vietare ai bot di spacciarsi per persone. Ad esempio, la regolamentazione potrebbe richiedere che i messaggi della campagna vengano forniti con disclaimer quando il contenuto in essi contenuto è generato da macchine anziché da esseri umani.

Sarebbe come i requisiti del disclaimer pubblicitario – “Pagato dal Sam Jones per il Comitato del Congresso” – ma modificato per riflettere la sua origine AI: “Questo annuncio generato dall’IA è stato pagato dal Sam Jones per il Comitato del Congresso”. Una versione più forte potrebbe richiedere: “Questo messaggio generato dall’intelligenza artificiale ti è stato inviato dal Comitato Sam Jones per il Congresso perché Clogger ha previsto che così facendo aumenterai le tue possibilità di votare per Sam Jones dello 0,0002%”. Per lo meno, crediamo che gli elettori meritino di sapere quando è un bot a parlare con loro, e dovrebbero sapere anche perché.

La possibilità di un sistema come Clogger mostra che il percorso verso impotenza collettiva umana potrebbe non richiedere qualche sovrumano intelligenza generale artificiale. Potrebbe semplicemente richiedere attivisti e consulenti troppo ansiosi che dispongano di nuovi potenti strumenti in grado di premere efficacemente i molti pulsanti di milioni di persone.

Questo articolo è ripubblicato da La conversazione con licenza Creative Commons. Leggi il articolo originale.

La posta In che modo l’IA potrebbe prendere il sopravvento sulle elezioni e minare la democrazia apparso per primo su Verità.

Fonte: www.veritydig.com

Articoli correlati