Seb Wride è il direttore dei sondaggi di Public First.
Pensi che un’intelligenza artificiale intelligente come un essere umano e che senta il dolore come un essere umano dovrebbe essere in grado di rifiutarsi di fare ciò che gli viene chiesto? Come tanti altri problemi, la risposta a questa domanda potrebbe dipendere dalla propria età.
Al Public First, abbiamo recentemente condotto un sondaggio sull’IA nel Regno Unito e abbiamo scoperto che i più giovani e gli anziani del paese hanno atteggiamenti molto diversi nei confronti dell’IA. Secondo i nostri risultati, è probabile che gli under 35 nel Regno Unito saranno i primi ad accettare che un’intelligenza artificiale sia cosciente e, inoltre, i primi a suggerire che l’IA dovrebbe essere in grado di rifiutare compiti.
L’intelligenza artificiale è diventata molto rapidamente un argomento caldo negli ultimi mesi e, come molti altri, mi sono ritrovato a parlarne quasi ovunque con colleghi, familiari e amici. Nonostante ciò, la discussione su cosa fare con l’IA è stata interamente guidata dall’élite. Nessuno ha votato in merito e una ricerca approfondita su ciò che il pubblico pensa riguardo agli immensi cambiamenti che il progresso dell’IA potrebbe portare alla nostra società è praticamente inesistente.
Proprio la scorsa settimana, alcuni dei più grandi nomi della tecnologia, tra cui Tesla e il capo di Twitter Elon Musk, hanno firmato un lettera aperta chiedendo una pausa immediata sullo sviluppo dell’IA che è più potente del programma GPT-4 appena lanciato, per la preoccupazione per i rischi dell’Artificial General Intelligence (AGI) – ovvero, AI alla pari con le capacità cognitive umane, in particolare quando si tratta essere in grado di raccogliere qualsiasi compito gli venga presentato.
Tuttavia, se queste minacce iniziano a plasmare la politica, non sembra giusto che il pubblico venga escluso dal dibattito.
Nel nostro sondaggio, abbiamo riscontrato che il pubblico è ampiamente allineato su ciò che sarebbe necessario affinché un’intelligenza artificiale sia cosciente, vale a dire, dovrebbe provare emozioni e provare dolore. Tuttavia, mentre un quarto di quelli di età pari o superiore a 65 anni ha affermato che un’IA non può mai essere cosciente, solo il 6% di quelli di età compresa tra 18 e 24 anni la pensava allo stesso modo.
Ciò che è particolarmente interessante è il modo in cui questi gruppi di età differiscono se poi postuliamo che dovrebbe essere sviluppata un’intelligenza artificiale intelligente come un essere umano o che sente il dolore. Quasi un terzo degli intervistati tra i 18 ei 24 anni concorda sul fatto che un’intelligenza artificiale “intelligente come un essere umano” dovrebbe essere trattata allo stesso modo di un essere umano, rispetto a solo l’8% di quelli di età pari o superiore a 65 anni.
E quando abbiamo invece suggerito un’intelligenza artificiale che “provava dolore come un essere umano”, più persone di età compresa tra 18 e 24 anni concordavano sul fatto che avrebbe dovuto essere trattata allo stesso modo (dal 46% al 34%), mentre la maggioranza della fascia di età più anziana riteneva che non dovesse ancora essere trattata. essere (62 percento).
Insistendo ulteriormente su questo problema e fornendo esempi di modi in cui un’intelligenza artificiale potrebbe essere trattata allo stesso modo, abbiamo poi scoperto che oltre un quarto dei minori di 25 anni concederebbe a un AGI gli stessi diritti e tutele legali degli esseri umani (28 percento), oltre un quarto lo farebbe dare il salario minimo AI (26%) e oltre un quinto consentirebbe a un’IA di sposare un essere umano (22%) e di votare alle elezioni (21%).
I livelli equivalenti tra gli over 65, tuttavia, sono rimasti tutti sotto il 10 per cento.
Più nettamente, dal 44% al 19%, le persone di età compresa tra 18 e 24 anni concordano sul fatto che un’intelligenza artificiale intelligente come un essere umano dovrebbe essere in grado di rifiutarsi di svolgere attività che non vuole svolgere, mentre una netta maggioranza di coloro che hanno più di 45 anni non è d’accordo (54 per cento).
un’intelligenza artificiale intelligente come un essere umano dovrebbe essere in grado di rifiutarsi di svolgere compiti che non vuole svolgere | Immagine tramite iStock
Siamo ancora molto lontani dal fatto che queste discussioni sull’AGI diventino realtà politica, ovviamente, ma c’è spazio per cambiamenti drammatici nel modo in cui il pubblico pensa e parla dell’IA in un futuro molto prossimo.
Quando abbiamo chiesto come il pubblico descriverebbe al meglio i propri sentimenti nei confronti dell’IA, le parole “curioso” (46%) e “interessato” (42%) hanno ottenuto il punteggio più alto. Nel frattempo, “preoccupato” è stata la parola negativa con il punteggio più alto al 27%, e solo il 17% si è descritto come “spaventato”. E così com’è, attualmente, più persone descrivono l’IA come un’opportunità per l’economia del Regno Unito (33%) piuttosto che una minaccia (19%), anche se una buona parte non ne è sicura.
Ma tutto questo potrebbe cambiare molto rapidamente.
La consapevolezza e i casi d’uso dell’IA rivolti al pubblico stanno crescendo rapidamente. Ad esempio, il 29% degli intervistati aveva sentito parlare di ChatGPT, compreso oltre il 40% degli under 35. Inoltre, un terzo di coloro che ne avevano sentito parlare affermava di averlo già utilizzato personalmente.
Tuttavia, c’è ancora molto spazio per l’intelligenza artificiale per sorprendere il pubblico. Il 60% del nostro campione ha affermato che sarebbe sorpreso se un chatbot di intelligenza artificiale affermasse di essere cosciente e chiedesse di essere liberato dal suo programmatore. È interessante notare che questa è più della percentuale di coloro che hanno dichiarato di essere sorpresi se uno sciame di droni autonomi fosse utilizzato per assassinare qualcuno nel Regno Unito (51%).
Sulla base di ciò, suggerirei che molti degli atteggiamenti che vediamo il pubblico attualmente esprimere nei confronti dell’IA – e dell’AGI – si basano sulla convinzione che questa sia tutta una possibilità remota. Tuttavia, direi anche che coloro che stanno appena iniziando a utilizzare questi strumenti sono solo a pochi passi da un momento di “Inquietante intelligenza artificiale”, quando il computer fa qualcosa di veramente sorprendente e si ha la sensazione che forse non si possa tornare indietro.
Proprio l’altra settimana, la nostra ricerca ha mostrato quanto potrebbe cambiare la convinzione che il lavoro di un artista possa essere automatizzato da un’IA, semplicemente mostrando alle persone alcuni esempi di arte prodotta dall’IA. Se vediamo che questo tipo di cambiamento si verifica con i Large Language Models – come GPT – allora improvvisamente, la preoccupazione espressa dal pubblico su questo problema aumenterà, e potrebbe iniziare a importare se si tende a credere che questi modelli siano coscienti o non.
Ora, tuttavia, sembra tutto uno scenario “che accadrà prima”: il governo che frena in qualche modo lo sviluppo dell’IA, un modello di intelligenza artificiale che diventa canaglia o si ritorce contro orrendamente, o la comparsa di una reazione dell’opinione pubblica al rapido sviluppo dell’IA.
In sostanza, ciò significa che abbiamo bisogno di un ripensamento di come la politica dell’IA si sviluppa nel tempo. E personalmente, sarei molto meno preoccupato se sentissi di avere almeno voce in capitolo su tutto, anche se questo è solo con i partiti politici e il governo che prestano un po’ più di attenzione a ciò che tutti pensiamo dell’IA.
Fonte: www.ilpolitico.eu