Home Cronaca L’acronimo dietro i nostri più selvaggi sogni e incubi di intelligenza artificiale

L’acronimo dietro i nostri più selvaggi sogni e incubi di intelligenza artificiale

da Notizie Dal Web

TESCREAL—pronunciato “tess-cree-all”. È una parola strana che potresti aver visto apparire negli ultimi mesi. Il famoso scienziato informatico Dr. Timnit Gebru frequentemente menzioni le ideologie “TESCREAL” sui social media, e per un po’ il profilo Twitter del miliardario venture capitalist Marc Andreessen Leggere: “attivista cyberpunk; abbracciatore della varianza; TESCREAList.» IL Financial Times, Business Insider E VentureBeat tutti hanno usato o studiato la parola. E The Washington Spectator ha pubblicato un articolo di Dave Troy intitolato “Capire TESCREAL: le strane ideologie dietro la svolta a destra della Silicon Valley”.

La mia ipotesi è che l’acronimo guadagnerà più attenzione man mano che l’argomento dell’intelligenza artificiale diventa più ampiamente discusso, insieme a domande sulle strane convinzioni dei suoi più potenti sostenitori e critici della Silicon Valley. Ma cosa diavolo significa “TESCREAL” e perché è importante?

Ho riflettuto molto su queste domande, poiché ho coniato il termine in un documento accademico non ancora pubblicato, scritto insieme a Gebru, tracciando l’influenza di una piccola costellazione di ideologie interconnesse e sovrapposte all’interno del campo contemporaneo dell’IA. Queste ideologie, crediamo, sono una ragione centrale per cui aziende come OpenAI, finanziata principalmente da Microsoft, e il suo concorrente, Google DeepMind, stanno cercando di creare “intelligenza artificiale generale” in primo luogo.

Il problema che Gebru ed io abbiamo incontrato quando abbiamo scritto il nostro articolo è che discutere la costellazione di ideologie dietro l’attuale corsa per creare AGI, e il terribili avvertimenti di “estinzione umana” che sono emersi accanto ad esso, possono diventare disordinati molto velocemente. La storia del perché AGI è l’obiettivo finale – con alcuni che vedono ChatGPT e GPT-4 come grandi passi in questa direzione – richiede di parlare di molte parole lunghe e polisillabiche: transumanesimo, estropianismo, singolaritarismo, cosmismo, razionalismo, Altruismo efficace E longtermismo. Io ho scritto su gli ultimi due di questi in articoli precedenti per Truthdig, che ha sondato come sono diventati enormemente influenti all’interno della Silicon Valley. Ma non devi guardare molto attentamente per vedere il loro impatto, che è praticamente ovunque. “TESCREAL” è una soluzione al problema di parlare di questo gruppo di ideologie senza una ripetizione ingombrante di parole quasi impossibili da pronunciare. John Lennon ha colto il problema quando ha cantava, “Questo-ismo, quello-ismo, è-m, è-m, è-m”.

Il professore di Oxford Nick Bostrom ha in programma di criogenizzare il suo corpo per la rivitalizzazione da parte di medici di intelligenza artificiale in un lontano futuro. Immagine: www.nickbostrom.com

Per ridurre al minimo “è-m, è-m, è-m”, ho proposto l’acronimo “TESCREAL”, che combina la prima lettera delle ideologie sopra elencate, all’incirca nello stesso ordine in cui sono apparse negli ultimi tre anni e mezzo decenni. Gebru e io abbiamo quindi iniziato a fare riferimento al “pacchetto di ideologie TESCREAL” per semplificare la nostra discussione, che ha dato origine ai termini “TESCREALism” (un riferimento al bundle nel suo insieme) e “TESCREAList” (qualcuno che sostiene la maggior parte o tutti i questo pacchetto). Quindi, abbiamo scambiato un elenco disordinato di parole con un singolo termine goffo; non una soluzione perfetta, ma date le opzioni, una soluzione di cui eravamo contenti.

Poco di ciò che sta accadendo in questo momento con l’IA ha senso al di fuori del framework TESCREAL. Le ideologie sovrapposte e interconnesse catturate dall’acronimo “TESCREAL” sono fondamentali per capire perché miliardi di dollari vengono versati nella creazione di sistemi di intelligenza artificiale sempre più potenti e perché organizzazioni come il Future of Life Institute stanno freneticamente chiamando affinché “tutti i laboratori di intelligenza artificiale sospendano immediatamente per almeno sei mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4”. Spiegano anche la recente comparsa del “doomerismo dell’IA”, guidato dall’esperto di TESCREAL Eliezer Yudkowsky, che in un recente editoriale di TIME approvato l’uso di attacchi militari contro i data center per ritardare la creazione di AGI, anche a rischio di innescare una guerra termonucleare a tutto campo.

Al centro di TESCREALism c’è una visione “tecno-utopica” del futuro. Anticipa un’epoca in cui le tecnologie avanzate consentiranno all’umanità di realizzare cose come: produrre abbondanza radicale, reingegnerizzare noi stessi, diventando immortale, colonizzare l’universo e creando una tentacolare civiltà “post-umana” tra le stelle piene di trilioni e trilioni di persone. Il modo più semplice per realizzare questa utopia è costruire AGI superintelligente.

Queste ideologie, crediamo, sono una ragione centrale per cui aziende come OpenAI, finanziata principalmente da Microsoft, e il suo concorrente, Google DeepMind, stanno cercando di creare “intelligenza artificiale generale” in primo luogo.

Ma poi, mentre il traguardo dell’AGI si avvicinava, alcuni iniziarono a temere che l’intero piano potesse ritorcersi contro: l’AGI potrebbe effettivamente rivoltarsi contro i suoi creatori, distruggendo l’umanità e, con essa, questo futuro utopico. Piuttosto che inaugurare un paradiso tra le stelle, un AGI costruito “in qualcosa di lontanamente simile alle circostanze attuali” ucciderebbe “letteralmente tutti sulla Terra”, per citazione Yudkowsky. Altri nel quartiere TESCREAL, come Andreessen, non sono d’accordo, discutere che la probabilità di morte è molto bassa. A loro avviso, il risultato più probabile dell’IA avanzata è che aumenterà drasticamente la produttività economica, ci darà “l’opportunità di aumentare profondamente l’intelligenza umana” e “affrontare nuove sfide che sono state impossibili da affrontare senza AI, dalla cura di tutte le malattie per raggiungere il viaggio interstellare. Lo sviluppo dell’IA è quindi “un obbligo morale che abbiamo verso noi stessi, verso i nostri figli e verso il nostro futuro”, scrive Andressen.

Di conseguenza, all’interno della comunità TESCREAL è emersa una serie di posizioni, dai “doomers AI” agli “accelerazionisti AI”, un termine che Andreessen incluso accanto a “TESCREAList” nel suo profilo Twitter. In mezzo ci sono varie posizioni “moderate” che vedono i pericoli come reali ma non insormontabili, una posizione esemplificata dal Future of Life Institute, che si limita a chiedere una “pausa” di sei mesi alla ricerca AGI.

Anche se potrebbe sembrare che “doomers” e “accelerazionisti” abbiano poco in comune, lo sfondo dell’intero dibattito è la visione del mondo TESCREAL. È la chiave per comprendere queste diverse scuole di pensiero e la corsa all’AGI che le ha catapultate nella coscienza pubblica. Per essere chiari, Microsoft e Google sono ovviamente guidati dalla motivazione del profitto. Si aspettano che i sistemi di intelligenza artificiale sviluppati da OpenAI e DeepMind lo facciano potenziare in modo significativo valore per gli azionisti. Ma il motivo del profitto è solo una parte del quadro. L’altra parte, non meno integrale, è il pacchetto TESCREAL. Questo è il motivo per cui è così importante capire cos’è questo pacchetto, chi lo abbraccia e come sta guidando la spinta per creare AGI.

Per vedere come le ideologie TESCREAL si incastrano, è utile esaminare ciascuna ideologia separatamente.

La “T” sta per transumanesimo. Questa è la spina dorsale del pacchetto TESCREAL. In effetti, le successive tre lettere dell’acronimo – estropianismo, singolaritarismo e cosmismo – sono solo variazioni del transumanesimo. Ma ci arriveremo tra un attimo. La visione centrale del transumanesimo è quella di riprogettare tecnologicamente la specie umana per creare una nuova razza superiore di “postumani.” Questi postumani sarebbero “superiori” in virtù del possesso di uno o più capacità sovrumane: immortalità, “QI” estremamente elevati, controllo totale sulle proprie emozioni, eccezionale “razionalità” e forse nuove modalità sensoriali come ecolocalizzazione, utilizzato dai pipistrelli per navigare nel mondo. Alcuni transumanisti sì immaginato “migliorando” le nostre capacità morali inserendo sostanze chimiche “che stimolano la moralità” nell’approvvigionamento idrico pubblico, come facciamo con il fluoruro.

In sostanza, un gruppo di atei del XX secolo ha concluso che le loro vite mancavano del significato, dello scopo e della speranza forniti dalla religione tradizionale. In risposta a questa consapevolezza, hanno inventato una nuova religione secolare, in cui il “paradiso” è qualcosa che creiamo noi stessi, In questo mondo. Questa nuova religione offriva la promessa della vita eterna, proprio come il cristianesimo, e ha una sua versione della resurrezione: coloro che non diventano immortali possono far criogenizzare i loro corpi da una società chiamata Alcor, con sede in California, in modo che possano essere rianimati quando il know-how tecnologico diventa disponibile. Nick Bostrom, protagonista di TESCREAL è un cliente Alcor. Sulla stessa linea, il CEO di OpenAI, Sam Altman, era una delle 25 persone che iscritto con Nectome, un’azienda che preserva i cervelli delle persone in modo che un giorno possano essere “caricati” su un computer, un processo che, per inciso, richiede l’eutanasia del cliente.

William MacAskill ha portato gli Altruisti Effettivi lontano dalla preoccupazione per la sofferenza attuale verso la preoccupazione per un Valhalla Digitale molto lontano. Immagine: esperto di poltrone

Quanto a Dio, se non esiste, perché non crearlo? Questo è ciò che AGI dovrebbe essere: un’entità onnisciente e onnipotente in grado di risolvere tutti i nostri problemi e creare utopie. Infatti la frase “IA simile a Dio” è diventato un modo popolare di riferirsi ad AGI negli ultimi mesi. Al contrario, se l’AGI che costruiamo si rivolta contro di noi, sarà un “demone” di nostra creazione. Questo è il motivo per cui Elon Musk, che ha co-fondato OpenAI con Altman e altri, avvertito che “con l’intelligenza artificiale stiamo evocando il demone”.

Comprendere il transumanesimo è importante non solo per il suo ruolo nel TESCREALismo, ma anche per la sua ubiquità nella Silicon Valley. I titani della tecnologia stanno investendo enormi somme di denaro nella realizzazione del progetto transumanista e vedono l’AGI come parte integrante nel catalizzare questo processo. Prendi la compagnia di Elon Musk, Neuralink. La sua missione è quella di unire “il tuo cervello con l’intelligenza artificiale”, e così facendo a “ripartenza il prossimo stadio dell’evoluzione umana. Questo è il transumanesimo. Oppure considera che Altman, oltre a firmare con Nectome, segretamente donato $ 180 milioni a una start-up di “longevità” chiamata Retro Biosciences, che mira a “prolungare la vita umana scoprendo come ringiovanire i nostri corpi”. Anche questo è transumanesimo.

Passiamo alle successive tre lettere dell’acronimo “TESCREAL”: Estropianismo, Singolaritarismo e Cosmismo. Il primo era il nome originario del movimento transumanista organizzato nel fine anni ’80 e primi anni ’90. Era sulla mailing list di Extropian che Bostrom ha inviato il suo e-mail razzista ormai famigerata affermando che “i neri sono più stupidi dei bianchi”. (Dopo che ho scoperto questa email, lui si è scusato per aver usato la parola N ma non ha ritrattato la sua affermazione sulla razza e “intelligenza”.) Il singolaritarismo è solo l’idea che il “Singolarità“- il momento in cui il ritmo dello sviluppo tecnologico supera la nostra comprensione, forse spinto da un”esplosione di intelligenza” dell’intelligenza artificiale che si auto-migliora — svolgerà un ruolo fondamentale nel realizzare il futuro tecno-utopico sopra menzionato, oltre a uno stato di abbondanza radicale e post-scarsità. In una versione popolare, la Singolarità consente ai nostri discendenti digitali postumani di colonizzare e “svegliare” l’universo. “La materia e i meccanismi ‘stupidi’ dell’universo saranno trasformati in forme squisitamente sublimi di intelligenza”, scrive TESCREAList Ray Kurzweil, un ricercatore di Google che è stato assunto personalmente da Larry Page, co-fondatore dell’azienda e aderente a una versione di TESCREALism chiamata “utopismo digitale.”

Anche se potrebbe sembrare che “doomers” e “accelerazionisti” abbiano poco in comune, lo sfondo dell’intero dibattito è la visione del mondo TESCREAL.

Se il transumanesimo lo è eugenetica sotto steroidi, il cosmismo è il transumanesimo sotto steroidi. Nel suo “The Cosmist Manifesto”, l’ex Extropian who battezzato il termine ormai comune “intelligenza generale artificiale”, Ben Goertzel, scrive che “gli esseri umani si fonderanno con la tecnologia”, determinando “una nuova fase dell’evoluzione della nostra specie”. Alla fine, “svilupperemo un’intelligenza artificiale senziente e una tecnologia di caricamento mentale” che “consentirà una durata di vita indefinita a coloro che scelgono di lasciarsi alle spalle la biologia”. Molte di queste “menti caricate” “sceglieranno di vivere in mondi virtuali”. Lo scopo finale è “sviluppare l’ingegneria dello spaziotempo e la ‘magia futura’ scientifica molto al di là della nostra attuale comprensione e immaginazione”, dove tali cose “permetteranno di realizzare, con mezzi scientifici, la maggior parte delle promesse delle religioni – e molte cose sorprendenti che nessun essere umano religione mai sognata”.

Questo ci porta al razionalismo e all’altruismo effettivo. Il primo è nato da un sito web chiamato LessWrong, fondata nel 2009 da Yudkowsky, collega di Bostrom nel primo movimento estropico. Poiché la realizzazione delle visioni utopiche di cui sopra richiederà che molte persone veramente “intelligenti” facciano cose davvero “intelligenti”, dobbiamo ottimizzare la nostra “intelligenza”. Questo è ciò che riguarda il razionalismo: trovare modi per migliorare la nostra “razionalità”, che – in qualche modo ironicamente – ha portato alcuni razionalisti ad approvare idee palesemente ridicole. Ad esempio, Yudkowski una volta reclamato, sulla base di argomentazioni apparentemente “razionali”, secondo cui sarebbe meglio lasciare che “una persona sia orribilmente torturata per 50 anni senza speranza né riposo” piuttosto che permettere a un numero molto elevato di persone di sperimentare il disagio quasi impercettibile di avere un ciglio dentro il loro occhio. Basta scricchiolare i numeri e vedrai che questo è vero – a volte hai solo bisogno di “taci e moltiplicati”, come sostiene Yudkowsky.

Imparentato

Il lato positivo dell’estinzione

Mentre il razionalismo è stato generato dai transumanisti, potresti vedere EA come ciò che accade quando i membri della comunità razionalista si concentrano su questioni di etica. Mentre il razionalismo mira a ottimizzare la nostra razionalità, EA si concentra sull’ottimizzazione della nostra moralità, spesso utilizzando gli stessi strumenti e metodi, come “Teoria del valore atteso.” Ad esempio, dovresti andare a lavorare per un’organizzazione no profit ambientale o trovare un lavoro a Wall Street lavorando per una società commerciale proprietaria come Jane Street Capital? EA litigare che se macini i numeri, puoi fare più “bene” in generale se lavori per una “organizzazione malvagia” come Jane Street e doni il reddito extra. Infatti, questo è esattamente quello che ha fatto un giovane EA di nome Sam Bankman-Fried dopo una conversazione con uno dei cofondatori di EA, William MacAskill. Alcuni anni dopo, Bankman-Fried arrivò a credere che avrebbe potuto essere in una posizione migliore per “diventare ricco sporco, per carità” – come un giornalista mettilo – se ha avviato la sua società di criptovaluta, cosa che ha fatto, dando vita ad Alameda Research e FTX. Bankman-Fried ora rischia fino a 155 anni di carcere per presunto “Uno dei più grandi frodi finanziarie nella storia”.

Come i razionalisti, gli EA sono ossessionati dall'”intelligenza”, dal “QI” e da una particolare interpretazione della “razionalità”. Un ex EA segnalato in Vox che i leader di EA hanno testato un sistema di classificazione dei membri della comunità in cui quelli con QI inferiore a 120 avrebbero ottenuto punti sottratti dalla loro scheda punteggio. Gli EA otterrebbero anche punti aggiunti se si concentrassero su questioni “a lungo termine” come la sicurezza AGI, mentre perderebbero punti se “lavorassero per ridurre la povertà globale o mitigare il cambiamento climatico”. Questo ci porta alla lettera finale dell’acronimo:

Il lungo termine, che è emerso dal movimento EA ed è probabilmente il contributo più significativo di EA al pacchetto TESCREAL. Se il transumanesimo è la spina dorsale del TESCREALismo, il lungo termine è il “cervello galattico” che si trova sopra di esso. Quello che è successo è che, nei primi anni 2010, un gruppo di EA si è reso conto che l’umanità può teoricamente esistere sulla Terra per un altro miliardo di anni, e se ci diffondessimo nello spazio, potremmo persistere per almeno 10 ^ 40 anni (è un 1 seguito di 40 zeri). Più strabiliante era la possibilità che queste persone del futuro vivessero in vaste simulazioni al computer in esecuzione su computer delle dimensioni di un pianeta sparsi in tutto il cosmo accessibile, un’idea che Bostrom sviluppato nel 2003. Più persone esistono in questo futuro simile a “Matrix”, più felicità potrebbe esserci; e maggiore è la felicità, migliore diventerà l’universo.

Eliezer Yudkowsky è emerso come il consumato AI Doomer. Immagine: Lo spettacolo di Logan Bartlett

Quindi, se il tuo obiettivo è influenzare positivamente il maggior numero possibile di persone e se la maggior parte delle persone che potrebbero esistere vivrà in un lontano futuro, allora è solo “razionale” concentrarsi su di loro piuttosto che sulle persone di oggi. Secondo Bostrom, il futuro potrebbe contenere almeno 10^58 persone digitali nei mondi della realtà virtuale (un 1 seguito da un incredibile 58 zeri). Confrontalo con gli 1,3 miliardi di persone presenti povertà multidimensionale oggi, che impallidisce assolutamente in confronto. Questo è il motivo per cui gli esperti di lunga data hanno concluso che migliorare la vita di queste persone future – anzi, assicurarsi che esistano in primo luogo – dovrebbe essere la nostra massima priorità globale. Inoltre, dal momento che la creazione di un AGI “sicuro” aumenterebbe notevolmente la probabilità che queste persone esistano, i ricercatori a lungo termine hanno aperto la strada al campo della “sicurezza dell’IA”, che mira a garantire che qualunque AGI costruiamo finisca per essere un “Dio” piuttosto che un “demone”. “

Se il transumanesimo è la spina dorsale del TESCREALismo, il lungo termine è il “cervello galattico” che si trova sopra di esso.

Come il transumanesimo, il razionalismo e l’EA, il lungo termine vanta un ampio seguito nella Silicon Valley e tra l’élite tecnologica. L’anno scorso, Elon Musk ritwittato un documento di Bostrom, uno dei documenti fondanti del lungotermismo, con la frase: “Probabilmente il documento più importante mai scritto”. Dopo che MacAskill ha pubblicato un libro sul lungo termine la scorsa estate, Musk descritto come “una corrispondenza ravvicinata con la mia filosofia”. Il lungo termine fa da sfondo a quello di Musk affermazioni che “abbiamo il dovere di mantenere la luce della coscienza, per assicurarci che continui nel futuro” e che “cosa importa … sta “massimizzando la felicità netta cumulativa della civiltà nel tempo”. E sebbene Altman abbia interrogato il “marchio” del lungo termine, è ciò che indica detto che la costruzione di un AGI sicuro è importante perché “le galassie sono davvero a rischio”. Come accennato in precedenza, la fondazione di aziende come OpenAI e DeepMind è stata in parte il risultato di persone di lunga data. Un primo investimento in DeepMind, ad esempio, era fatto di Jaan Tallinn, un eminente TSCREAList che ha anche co-fondato il Center for the Study of Existential Risk a Cambridge e lo stesso Future of Life Institute in gran parte finanziato dal cripto milionario Vitalik Buterin, lui stesso un TSCREAList. Cinque anni dopo la formazione di DeepMind, Musk e Altman hanno poi unito le forze con altre élite della Silicon Valley, come Pietro Thiel, per avviare OpenAI.

Il lungo termine è anche una delle ragioni principali per cui il “doomer” impazzisce per l’AGI che si sta costruendo nel prossimo futuro, prima che possiamo capire come renderlo “sicuro”. Secondo il quadro a lungo termine, la più grande tragedia di un’apocalisse AGI non sarebbero gli 8 miliardi di morti di persone che ora vivono. Questo sarebbe sicuramente un male, ma molto peggio sarebbe la non nascita di trilioni e trilioni di persone future che altrimenti sarebbero esistite. Dovremmo quindi fare tutto il possibile per garantire che queste persone del futuro esistano, anche a costo di trascurare o danneggiare le persone di oggi – o almeno così implica direttamente questa linea di ragionamento. Questo è il motivo per cui Yudkowski di recente conteso che vale la pena rischiare una guerra termonucleare totale sulla Terra per evitare un’apocalisse AGI. L’argomento è che, mentre un’apocalisse AGI ucciderebbe tutti sulla Terra, la guerra termonucleare quasi certamente non lo farebbe. Almeno con la guerra termonucleare, quindi, ci sarebbe ancora una possibilità di colonizzare lo spazio e creare l’utopia, dopo la ricostruzione della civiltà. Alla domanda “Quante persone possono morire per prevenire l’AGI?”, Yudkowsky così ha risposto:

Dovrebbero esserci abbastanza sopravvissuti sulla Terra a stretto contatto per formare una popolazione riproduttiva vitale, con spazio libero, e dovrebbero avere un approvvigionamento alimentare sostenibile. Finché è vero, c’è ancora una possibilità di raggiungere le stelle un giorno.

Questo è il lato oscuro del TESCREALismo: è uno dei motivi per cui l’ho fatto discusso che questo pacchetto, in particolare il “cervello galattico” in alto – il lungo termine – potrebbe essere profondamente pericoloso. Se i fini a volte possono giustificare i mezzi, e se il fine è un paradiso utopico pieno di quantità letteralmente astronomiche di “valore”, allora cosa è esattamente fuori dal tavolo per proteggere questo futuro? L’altro lato oscuro del TESCREALismo è il suo campo accelerazionista, che vuole che l’umanità si precipiti a creare tecnologie sempre più potenti con poca o nessuna regolamentazione. Farlo è destinato a lasciare dietro di sé una scia di distruzione.

Ciò che collega questi due estremi – insieme alle posizioni “moderate” nel mezzo – è la convinzione fondamentalista che le tecnologie avanzate siano il nostro biglietto per un mondo in cui, come Altman scrive in un post sul blog OpenAI, “l’umanità fiorisce a un livello che probabilmente è impossibile per nessuno di noi ancora visualizzare completamente”. TESCREALism è la visione del mondo basata su questa grande visione, che è cresciuta dalla sovrapposizione di movimenti e ideologie discusse sopra.

Potrebbe essere in qualche modo ovvio a questo punto il motivo per cui le ideologie TESCREAL comprendono un “fascio”. Puoi pensarli come formare un’unica entità estesa nel tempo, dalla fine degli anni ’80 fino ad oggi, con ogni nuova ideologia che nasce e viene modellata da quelle precedenti. In altre parole, l’emergere di queste ideologie assomiglia molto allo sprawl suburbano, che risulta in un gruppo di comuni senza confini netti tra di loro – una conurbazione di movimenti che condividono più o meno lo stesso patrimonio ideologico. In molti casi, gli individui che hanno influenzato lo sviluppo di uno ne hanno plasmato anche molti altri, e le comunità che si sono fuse attorno a ciascuna lettera dell’acronimo si sono sempre sovrapposte notevolmente. Definiamo “TESCREALista” chiunque sia legato a più di una di queste ideologie. Gli esempi includono Bostrom, Yudkowsky, MacAskill, Musk, Altman e Bankman-Fried.

(L’unica ideologia che è per lo più defunta è l’estropismo, che si è fusa con le successive ideologie trasmettendo il suo impegno per valori come “progresso perpetuo”, “autotrasformazione”, “pensiero razionale” e “tecnologia intelligente”. Il ruolo dell’estropianismo nella formazione del TESCREALismo e la sua continua eredità sono il motivo per cui lo includo nell’acronimo.)

Ci sono molte altre caratteristiche del TESCREALismo che giustificano il pensarlo come un unico pacchetto. Ad esempio, ha collegamenti diretti con l’eugenetica, e le tendenze eugenetiche si sono propagate in quasi tutte le ideologie che lo compongono. Ciò non dovrebbe sorprendere dato che il transumanesimo – la spina dorsale del TESCREALismo – è esso stesso una forma di eugenetica chiamata “eugenetica liberale”. I primi transumanisti includevano alcuni dei principali eugenisti del 20° secolo, in particolare Julian Huxley, presidente della British Eugenics Society dal 1959 al 1962. Ne ho scritto a lungo in un precedente articolo di Truthdig, quindi non entrerò nei dettagli qui, ma basti dire che la puzza di eugenetica è in tutta la comunità TESCREAL. Diversi importanti TESCREAListi, ad esempio, l’hanno fatto esplicitamente preoccupato sulle persone “meno intelligenti” che incrociano i loro coetanei “più intelligenti”. Se le persone “poco intelligenti” fanno troppi figli, allora il livello medio di “intelligenza” dell’umanità diminuirà, mettendo così a repentaglio l’intero progetto TESCREAL. Bostrom lo elenca come un tipo di “rischio esistenziale”, che denota essenzialmente qualsiasi evento che ci impedirebbe di creare un’utopia postumana tra i cieli pieni di numeri astronomici di persone digitali “felici”. Da Bostrom parole,

è possibile che la società civilizzata avanzata dipenda dall’esistenza di una frazione sufficientemente ampia di individui dotati di talento intellettuale. Attualmente sembra che ci sia una correlazione negativa in alcuni luoghi tra successo intellettuale e fertilità. Se tale selezione dovesse operare per un lungo periodo di tempo, potremmo evolverci in una specie meno intelligente ma più fertile, homo philoprogenitus (“amante di molti figli”).

Questo porta ad un’altra caratteristica della comunità TESCREAL: molti membri si vedono letteralmente come salvare il mondo. A volte questo è reso esplicito, come quando MacAskill – co-fondatore di EA, leader a lungo termine e sostenitore del transumanesimo – scrive che “per salvare il mondo, non trovare lavoro in un ente di beneficenza; vai a lavorare a Wall Street. Allo stesso modo Luke Muehlhauser, un TSCREAList che lavorava con Yudkowsky su questioni di sicurezza dell’IA dichiara:

Il mondo non può essere salvato da crociati incappucciati dotati di grande forza e potere di volo. No, il mondo deve essere salvato da matematici, informatici e filosofi.

Con ciò intende, ovviamente, i TESCREAListi.

Uno degli obiettivi centrali della comunità TESCREAL è mitigare il rischio esistenziale. Per definizione, questo significa aumentare la probabilità che un giorno esista un mondo utopico di “valore” astronomico in futuro. Quindi, dire “Sto lavorando per mitigare i rischi esistenziali” è un altro modo di dire: “Sto cercando di salvare il mondo – il mondo a venire, l’utopia”. Come afferma uno studioso, “la posta in gioco è così alta che coloro che sono coinvolti in questo sforzo si saranno guadagnati da vivere anche se riducono di una piccola frazione la probabilità di una catastrofe”. Bostrom sostiene che se esiste solo l’1% di possibilità che 10^52 vite digitali esistano in futuro, allora “il valore atteso della riduzione del rischio esistenziale di un mero miliardesimo di miliardesimo di punto percentuale vale cento miliardi di volte tanto quanto un miliardi di vite umane”. In altre parole, se mitighi il rischio esistenziale di questa minuscola quantità, allora hai fatto l’equivalente morale di salvare miliardi e miliardi di vite umane esistenti.

Questo grandioso senso di importanza personale è evidente nei nomi delle principali organizzazioni TESCREAL, come il Future of Humanity Institute di Oxford, fondato da Bostrom nel 2005, e il Future of Life Institute, che obiettivi “per aiutare a garantire che il futuro della vita esista [i] e [sia] il più fantastico possibile” e originariamente incluso Bostrom nel suo comitato consultivo scientifico.

La convinzione che i TESCREAListi che cercano di mitigare i rischi esistenziali stiano facendo qualcosa di straordinariamente importante – salvare il mondo – è evidente anche in un atteggiamento che molti esprimono nei confronti delle minacce “inesistenti” all’umanità. La giustizia sociale fornisce un buon esempio. Dopo che l’e-mail razzista di Bostrom è venuta alla luce all’inizio di quest’anno, ha rilasciato una scritta sciatta “scuse” E afferrato sul suo sito web personale su “uno sciame di zanzare assetate di sangue” che lo distrae “da ciò che è importante” – un chiaro riferimento agli attivisti per la giustizia sociale che erano sconvolti dal suo comportamento. Quando si crede di salvare letteralmente il mondo, tutto il resto sembra banale al confronto.

Questo è un altro motivo per cui credo che il pacchetto TESCREAL rappresenti una seria minaccia per le persone del presente, specialmente per coloro che non sono così privilegiati e benestanti come molti importanti TESCREAListi. Come Bostrom una volta scherzato, le catastrofi che non minacciano il nostro futuro postumano tra i cieli non sono altro che “semplici increspature sulla superficie del grande mare della vita”. Perché? Perché non “influiranno in modo significativo sulla quantità totale di sofferenza o felicità umana né determineranno il destino a lungo termine della nostra specie”. “Massacri giganti per l’uomo”, sono ma “piccoli passi falsi per l’umanità”.

Quando si crede di salvare letteralmente il mondo, tutto il resto sembra banale al confronto.

Forse la caratteristica più importante del pacchetto TESCREAL nel suo insieme è la sua enorme influenza. Insieme, queste ideologie hanno dato origine a una visione del mondo normativa – essenzialmente, una “religione” per atei – costruita attorno a un utopismo profondamente impoverito, creato quasi interamente da uomini bianchi benestanti nelle università d’élite e nella Silicon Valley, che ora vogliono imporre questa visione su il resto dell’umanità – e ci stanno riuscendo. Questo è il motivo per cui il TESCREALismo deve essere nominato, chiamato in causa e criticato. Sebbene non tutti i TESCREAList abbiano le opinioni più radicali presenti nella comunità, le opinioni più radicali sono spesso sostenute dalle figure più influenti. Bostrom, Musk, Yudkowsky e MacAskill hanno tutti fatto affermazioni che farebbero venire i brividi alla maggior parte delle persone. MacAskill, ad esempio, sostiene nel suo libro del 2022 “What We Owe the Future” che, per mantenere ruggenti i motori della crescita economica, dovremmo prendere in considerazione la possibilità di sostituire i lavoratori umani con i lavoratori digitali. “Potremmo sviluppare un’intelligenza generale artificiale (AGI)”, ha detto scrive, “che potrebbe sostituire i lavoratori umani, inclusi i ricercatori. Ciò ci consentirebbe di aumentare il numero di “persone” che lavorano alla ricerca e sviluppo con la stessa facilità con cui attualmente aumentiamo la produzione dell’ultimo iPhone”.

Sembra un’utopia o una distopia? Più tardi lui dichiara che la nostra cancellazione del mondo naturale potrebbe essere “una buona cosa”, poiché c’è molta sofferenza degli animali selvatici in natura, e quindi meno animali selvatici ci sono, meno sofferenza degli animali selvatici. Da questo punto di vista, la natura stessa potrebbe non avere un posto nel futuro di TESCREAList.

Se il TESCREALismo non fosse un’ideologia in ascesa all’interno di alcuni dei settori più potenti della società, potremmo ridere di tutto questo, o semplicemente alzare gli occhi al cielo. Ma il fatto spaventoso è che il pacchetto TESCREAL sta già modellando il nostro mondo, e il mondo dei nostri figli, in modi profondi. In questo momento, i media, il pubblico, i politici ei nostri leader politici sanno poco di queste ideologie. Come persona che ha partecipato al movimento TESCREAL negli ultimi dieci anni, ma che ora lo vede come una forza distruttiva e pericolosa nel mondo, sento l’obbligo morale di educare le persone su ciò che sta accadendo. Sebbene il termine “TESCREAL” sia strano e goffo, detiene le chiavi per dare un senso alla spinta “accelerazionista” per sviluppare AGI così come il contraccolpo “doomer” contro i recenti progressi, guidato dai timori che AGI – se creato presto – potrebbe annientare l’umanità piuttosto che inaugurare un paradiso utopico.

Se vogliamo avere qualche speranza di contrastare questo colosso, è fondamentale capire cosa significa “TESCREAL” e come queste ideologie si sono infiltrate nelle più alte sfere del potere. Ad oggi, il movimento TESCREAL è stato oggetto di preziose piccole indagini critiche, per non parlare della resistenza. È tempo che cambi.

La posta L’acronimo dietro i nostri più selvaggi sogni e incubi di intelligenza artificiale apparso per primo su Verità.

Fonte: www.veritydig.com

Articoli correlati