Questo articolo è stato originariamente pubblicato su Il markup.
Meredith Broussard non è la solita studiosa di intelligenza artificiale. Certo, la giornalista di dati e professore associato alla New York University ha scritto per anni sui pericoli dell’IA nel regno accademico ed è stata una feroce critica del “tecnosciovinismo”, un termine che ha coniato nel suo libro del 2018, “Mancanza di intelligenza artificiale”, per la convinzione apparentemente cieca che possiamo usare la tecnologia per risolvere qualsiasi problema.
Ma ciò che è anche degno di nota nel lavoro di Broussard sull’IA è che ha trovato il modo di trasmettere quanto l’IA si sia già infiltrata nella vita delle persone comuni. Nel suo ultimo libro, “Più di un guasto“, ad esempio, scrive di vari esempi tangibili che portano alla luce i modi molto significativi e talvolta problematici in cui l’IA sta già influenzando vari aspetti dell’esperienza vissuta delle persone, che si tratti di distributori di sapone che non riconoscono le tonalità della pelle più scure o della tecnologia AI che le diceva che aveva il cancro.
E questo libro non è solo per sviluppatori o professori di Big Tech che discutono delle implicazioni etiche dell’IA. Il suo libro è scritto per persone di tutti i livelli di alfabetizzazione tecnologica. Puoi dire che Broussard è un insegnante oltre che uno studioso; non ha paura di spiegare alcuni dei problemi più oscuri con parole semplici.
Alla luce dell’attuale discorso frenetico e molto (troppo) pubblicizzato sull’IA, The Markup ha deciso di parlare con Broussard Ancora e ottenere la sua opinione sull’intelligenza artificiale: come influisce attualmente nelle nostre vite e quali sono le più grandi idee sbagliate sulla tecnologia.
Questa intervista è stata modificata per lunghezza e chiarezza.
Lam Thuy Vo: Hai scritto di IA per anni e ora tutti ne parlano. Ti dispiacerebbe darci una panoramica di cosa sia l’IA?
Meredith Broussard: L’intelligenza artificiale è solo matematica. È molto complicato, bella matematica. Un altro modo di pensarci: l’intelligenza artificiale è la statistica sugli steroidi. Nel mio nuovo libro, “More than a Glitch: Confronting Race, Gender, and Ability Bias in Tech”, cerco di demistificare l’IA e raccogliere esempi che mostrano perché non dovremmo precipitarci a capofitto in un futuro abilitato all’IA.
Vo: Hai qualche esempio di ciò che non è o di come viene comunemente frainteso?
Broussard: Le persone tendono a confondere l’IA “reale” con l’IA di Hollywood. Tutti tendiamo a pensare prima a Terminator o a qualsiasi altra favolosa rappresentazione dell’IA che abbiamo da Hollywood ogni volta che pensiamo all’intelligenza artificiale.
E onestamente, è davvero divertente immaginare futuri tecnologici fantascientifici. Ma quando parliamo di AI e del suo ruolo nella nostra vita al giorno d’oggi, è davvero importante rimanere centrati su ciò che è reale dell’IA rispetto a ciò che è immaginario sull’IA.
Vo: Hai portato una storia molto personale nel tuo libro: come una tecnologia che utilizza l’intelligenza artificiale ti ha diagnosticato un cancro. Raccontaci un po’ del momento in cui te ne sei reso conto e di come ti ha spronato ad agire.
Broussard: In uno dei capitoli del libro, ho preso le mie mammografie e le ho passate attraverso un’intelligenza artificiale open source per vedere se l’IA avrebbe rilevato il mio cancro al seno. L’ho fatto per scrivere sullo stato dell’arte nel rilevamento del cancro basato sull’intelligenza artificiale. Mi sono interessato all’intelligenza artificiale per il cancro quando ho visto una nota nel mio grafico che diceva: “Un’intelligenza artificiale ha letto questa scansione”. Ero curioso: cosa ha trovato l’IA? Chi ha scritto l’IA? Che tipo di pregiudizi aveva? Ma poi mi sono dato da fare con il trattamento del cancro (abilitato dall’uomo) e per un po’ mi sono dimenticato dell’intelligenza artificiale. Dopo essere stato meglio, ho deciso di fare un esperimento per vedere se un’intelligenza artificiale open source avrebbe rilevato il cancro che era ovvio per il mio medico.
Sarebbe fantastico se potessimo usare la tecnologia per salvare più vite dal cancro
Tendiamo a sentire cose del tipo: “I radiologi saranno sostituiti dall’intelligenza artificiale nei prossimi anni”. Non sono. Forse, forse, un giorno, ma non presto. C’era un articolo sul New York Times diversi mesi fa ciò sembrava indicare che l’intelligenza artificiale per il rilevamento del cancro al seno fosse proprio dietro l’angolo. In realtà, l’intelligenza artificiale per il rilevamento del cancro è disponibile dagli anni ’90 e non è ancora diventata abbastanza efficace da sostituire i medici.
L’intelligenza artificiale che ho usato, infatti, ha funzionato. Ma non diagnostica come fa un medico. Ha disegnato un cerchio attorno a una “area di interesse” su una singola immagine piatta e mi ha dato un punteggio compreso tra zero e uno. Non mi ha dato un riassunto della frase come “Scusa, probabilmente hai il cancro” o ha mostrato una percentuale di possibilità che l’area interessata fosse maligna; ha appena fatto un cerchio e uno spartito. Mi sono reso conto che mi aspettavo di più: non il Terminator e non un dottore robot in stile Jetsons, ma almeno una diagnosi simile a quella umana basata su tutta la mia cartella clinica. Questo è piuttosto tipico. Spesso abbiamo aspettative immaginarie sull’intelligenza artificiale e la tecnologia non è all’altezza di ciò che immaginiamo possa fare.
Sarebbe davvero fantastico se potessimo diagnosticare più persone prima. Sarebbe fantastico se potessimo usare la tecnologia per salvare più vite dal cancro. Siamo assolutamente tutti uniti in questo obiettivo. Ma l’idea che l’intelligenza artificiale sarà la nostra salvezza per la diagnosi di tutti i tumori nei prossimi anni è un po’ esagerata.
Vo: Hai coniato il termine “tecnosciovinismo” e stai accennando alla sua definizione nella tua risposta. Puoi dirmi qualcosa in più a riguardo?
Broussard: Il tecnosciovinismo è una sorta di pregiudizio che afferma che la tecnologia o le soluzioni tecnologiche sono superiori. Vedi molto tecnosciovinismo nell’attuale retorica sull’intelligenza artificiale. La gente dice cose del tipo: “Questa nuova ondata di intelligenza artificiale sarà trasformativa e tutto sarà diverso”.
E onestamente, le persone lo hanno detto per l’intera rivoluzione di Internet, in cui sono trascorsi più di 30 anni. Internet non è giovane, alla moda e nuovo. Internet è di mezza età. Ora possiamo prendere decisioni più equilibrate al riguardo. E dobbiamo prestare attenzione alla retorica che le persone usano sulla tecnologia, perché ogni nuova tendenza tecnologica non cambierà tutto in modo radicale.
Vo: Questo è un ottimo seguito. Parliamo per un secondo di ChatGPT e di altri modelli di linguaggio di grandi dimensioni. Da quando la tecnologia è stata rilasciata al grande pubblico, molte persone hanno parlato dei danni di questa tecnologia, inclusi 350 leader della tecnologia e dell’intelligenza artificiale che ha firmato una lettera di una frase preoccupandosi del potenziale dell’IA di provocare l’estinzione umana. Cosa ne pensi di questo clamore intorno all’intelligenza artificiale e al tipo di conversazione che produce?
Broussard: Penso che sia importante incentrare le nostre conversazioni sui danni reali che vengono vissuti ogni giorno da persone reali per mano dell’IA.
Ci sono casi come il recente La storia delle macchine del sospetto da Wired e Lighthouse Reports su un algoritmo a Rotterdam che stava presumibilmente tentando di rilevare frodi sul welfare. Tutto ciò che l’algoritmo ha fatto è stato identificare gli immigrati recenti. Quelle sono le persone che probabilmente hanno un disperato bisogno dell’assistenza pubblica. L’algoritmo diceva: “No, limiteremo il tuo accesso ai benefici pubblici”.
Abbiamo cose come algoritmi di recidiva che sono di parte razziale. O anche cose semplici come distributori di sapone che non leggono la pelle più scura. O il fatto che gli smartwatch e altri sensori di salute non funzionino altrettanto bene per la pelle più scura. Cose come selfie stick che dovrebbero tracciare la tua immagine? Anche quelli non funzionano così bene per le persone con la pelle più scura perché il riconoscimento delle immagini in generale è parziale.
Quindi ci sono molti pregiudizi incorporati in tutti questi sistemi di intelligenza artificiale. È tecnosciovinismo affermare che questi sistemi sono superiori. E in generale, penso che dobbiamo prestare maggiore attenzione ai pregiudizi del mondo reale che sono integrati in questi sistemi. Dobbiamo smetterla di presumere che l’intelligenza artificiale o qualsiasi tipo di tecnologia sarà la salvezza.
Vo: Ci sono stati molti discorsi sul “doomerismo” sull’IA che rendono molti di noi impotenti. Quali sono le cose reali che potrebbero essere implementate in questo momento per fermare il danno che l’IA sta già facendo?
Broussard: Penso che nel complesso abbiamo bisogno di più alfabetizzazione computazionale. Una delle cose che cerco di fare nel mio libro, e nel mio lavoro in generale, è spiegare argomenti tecnici complessi in un linguaggio semplice per consentire alle persone di parlare quando le decisioni algoritmiche sono ingiuste o ingiuste.
A molte persone che creano la tecnologia piace ritrarla come misteriosa e potente. Questo è un modo di controllo e una strategia per convincere le persone a spendere di più in tecnologia. Quando ti senti impotente e quando senti che c’è una forza che prende una decisione e tu non hai voce in capitolo, allora non ti senti autorizzato a parlare.
Ma algoritmi e computer non sono necessariamente più intelligenti degli esseri umani. I computer prenderanno molte decisioni davvero sbagliate. Quindi le persone dovrebbero sentirsi autorizzate a parlare.
Vo: Mi hai parlato del “punto finale” della conoscenza nell’IA. Parlami di come ciò si applica a ChatGPT e ad altri modelli di linguaggio di grandi dimensioni.
Broussard: Una delle cose di cui molte persone non si rendono conto riguardo ai grandi modelli linguistici (LLM) è che sono congelati nel tempo. Pensiamo che l’IA sia così flessibile e parliamo di apprendimento dell’IA dalle interazioni, ma in realtà la capacità di “apprendimento” di un’IA è più limitata di quella di un essere umano. Quando crei un sistema di apprendimento automatico (come un LLM), prendi un sacco di dati (spesso questi “dati di addestramento” vengono estratti da Internet), li inserisci nel computer e istruisci il computer a creare un modello. Il modello mostra i modelli matematici nei dati. Quindi, puoi utilizzare quel modello per generare un nuovo linguaggio o generare nuove immagini o prendere decisioni o fare previsioni. È così che funziona ogni modello di linguaggio di grandi dimensioni.
Sono anche preoccupato per il futuro della storia perché c’è un’enorme quantità di conoscenza che non viene pubblicata apertamente o preservata su Internet.
Devi decidere un endpoint per i tuoi dati di addestramento. L’attuale iterazione gratuita di ChatGPT, per quanto ne so, termina a settembre 2021. Aggiungiamo sempre nuove cose a Internet, in ogni momento di ogni giorno, ma non puoi aggiungere tutte le novità roba minuto su internet perché ci vuole tempo e un quantità Di energia per addestrare un modello AI. Quindi devi decidere, OK, fino a che punto includerò le informazioni? Quindi, settembre 2021 è la fine di ciò che sa quel grande modello linguistico. [Nota dell’editore: ChatGPT recentemente annunciato che una versione a pagamento avrà accesso a informazioni aggiornate dal motore di ricerca Microsoft Bing, una funzionalità che verrà eventualmente aggiunta alla versione gratuita.]
C’è qualcosa di veramente statico nel pensare al congelamento della conoscenza a partire dal 2021. Se stiamo parlando di qualcosa come costruire una casetta per gli uccelli, non è cambiato molto. Ma gli atteggiamenti sociali riguardo a razza, genere e disabilità sono cambiati negli ultimi due anni. E se dipendi dalla conoscenza che è vecchia, allora non raggiungerai il progresso sociale. Non è una situazione molto flessibile.
Sono anche preoccupato per il futuro della storia perché c’è un’enorme quantità di conoscenza che non viene pubblicata apertamente o preservata su Internet. Se inizi a credere che i modelli linguistici di grandi dimensioni incapsulano l’intera Internet, cosa che non è, allora hai una visione molto, molto ristretta di ciò che la conoscenza conta nel mondo. Semplicemente non è una visione molto ampia e inclusiva.
Pensa a quali voci sono rappresentate su Internet e pensa a chi lo è stato vittima di bullismo da Internet. Se pensi alle voci dominanti negli spazi digitali, quelle voci sono raramente donne o persone di colore. Quindi è facile prevedere quale tipo di voce uscirà dai grandi modelli linguistici.
Questo non vuol dire che i modelli di linguaggio di grandi dimensioni non siano ingegnosi. Sono davvero eleganti e sono divertenti da usare per i primi 20 minuti. Gli LLM sono un risultato scientifico impressionante. Penso che tutti dovrebbero conoscerli, dovrebbero usarli e non dovrebbero averne paura. Sono disposto a credere che gli LLM siano utili a qualcosa. Cosa sia, non lo so ancora.
Penso anche che le persone dovrebbero leggere il file carta di pappagalli stocastici e comprendere i potenziali pericoli di modelli linguistici più ampi.
Vo: Ora che l’intelligenza artificiale è una parte più importante del discorso generale, qual è una cosa che vorresti che i consumatori quotidiani di tecnologia traessero da questa conversazione?
Broussard: Penso che sia importante gestire le nostre aspettative sulla tecnologia. Le persone si aspettano che sia speciale quando usano l’intelligenza artificiale. Senti molto clamore e finalmente interagisci con un’IA conversazionale o un’app AI, e ti aspetti che sarà eccitante. Pensi che sarà diverso e trasformativo perché stai usando l’intelligenza artificiale. Ma in realtà, usi l’intelligenza artificiale da anni senza riconoscerla.
C’è l’intelligenza artificiale nei motori di ricerca. Esistono più di 250 diversi modelli di machine learning che vengono attivati ogni volta che esegui una semplice ricerca su Google. Ogni volta che registri una conversazione Zoom e la trascrivi automaticamente, indovina un po’? Stai usando l’intelligenza artificiale. Se hai mai usato uno di quei filtri su Snapchat per metterti le orecchie da gatto, quella è l’intelligenza artificiale. Non è stato etichettato come AI perché i marketer non pensavano che avrebbe migliorato l’esperienza fino a poco tempo fa, quando l’IA è diventata davvero sexy, e ora tutto è AI.
In realtà, una volta che lo usi, l’IA sembra banale. Sembra di usare qualsiasi altra tecnologia. Quindi dobbiamo davvero fare i conti con le nostre aspettative, abbassare il clamore e colmare il divario tra ciò che immaginiamo e ciò che è la realtà.
P.S. La settimana scorsa, noi abbiamo chiesto sui social media se utilizzeresti ChatGPT per scrivere storie per un bambino della tua vita. Dei 438 intervistati, la maggior parte dei lettori ha detto di no. Dai un’occhiata ai risultati:
Sorpreso? Faccelo sapere IL sondaggi risposte.
Questo articolo è stato originariamente pubblicato su The Markup ed è stato ripubblicato sotto il Attribuzione Creative Commons-Non commerciale-Non opere derivate licenza.
La posta Un’intelligenza artificiale le ha diagnosticato un cancro al seno. Ha eseguito un esperimento per verificarne l’accuratezza. apparso per primo su Verità.
Fonte: www.veritydig.com