L’estinzione non è più una posizione minoritaria, anzi, sta diventando la posizione dominante nella Silicon Valley, il che è terrificante perché queste persone, non sane di mente e alcune molto potenti, fanno sul serio.
Se pensate che il nostro lavoro abbia un qualche valore — anche minimo — Vi preghiamo di prendere in considerazione l’opportunità di sostenerci. Vi chiediamo di acquistare — e solo questo — i nostri volumiLibri su cartae i volumi diwww.asterios.it Siamo profondamente convinti che solo leggendo e riflettendo saremo in grado di superare il peso delle conseguenze della crisi, profonda e irreversibile, che attraversa impetuosa i nostri corpi e la nostra fragile esistenza.
Questa è la seconda parte di una serie in tre parti sul movimento pro-estinzione nella Silicon Valley. Per la prima parte, clicca sotto.
L’altro giorno un giornalista mi ha chiesto cosa, secondo me, sia più importante che le persone capiscano dell’attuale corsa alla costruzione di un’intelligenza artificiale generale (AGI ). La mia risposta è stata: innanzitutto, la corsa all’AGI è nata direttamente dal movimento TESCREAL . Inizialmente, la costruzione di un’AGI era più una questione di utopia che di profitto, sebbene il profitto sia diventato un motore significativo, accanto ai sogni tecno-utopici di un’AGI che inaugura un mondo fantastico paradisiaco tra i cieli letterali . Pertanto, non è possibile dare un senso alla corsa all’AGI senza una certa comprensione delle ideologie TESCREAL.
In secondo luogo, il movimento TESCREAL è profondamente intrecciato con una prospettiva pro-estinzione secondo cui la nostra specie, Homo sapiens , dovrebbe essere emarginata, privata del suo potere e, in ultima analisi, eliminata dai nostri successori postumani. Più specificamente, sostengo in una voce di prossima pubblicazione intitolata “TESCREAL” per l’ Oxford Research Encyclopedia che le opinioni all’interno del movimento TESCREAL, quasi senza eccezioni, si collocano da qualche parte nello spettro tra il pro-estinzione e (come lo chiamo io) il neutralismo dell’estinzione . Il pro-estinzione della Silicon Valley sostiene che la nostra specie debba essere sostituita, mentre il neutralismo dell’estinzione afferma che non ha molta importanza se la nostra specie sopravviverà una volta arrivata la postumanità.
Alcuni TESCREAlist sono neutralisti dell’estinzione, ma molti altri sono apertamente pro-estinzione. Un esempio è l’idea del “degno successore” di Daniel Faggella, di cui ho parlato nella prima parte di questa serie in tre parti . Ma non è certo l’unico TESCREAlist a sostenere che i giorni dell’umanità dovrebbero essere contati. Nella terza parte di questa serie, fornirò un quadro dettagliato per comprendere tutte le diverse versioni del pro-estinzione della Silicon Valley, che ritengo importante per questo motivo: nei prossimi mesi e anni, probabilmente assisteremo a un crescente dibattito all’interno del movimento TESCREAL non sul fatto che il pro-estinzione sia negativo, ma su quale tipo di pro-estinzione sia migliore. Ecco perché è importante capire in che modo differiscono le opinioni pro-estinzione di, ad esempio, Peter Thiel, Elon Musk, Beff Jezos e Daniel Faggella.
Questo post è molto meno teorico delle parti 1 e 3: fornisce un elenco di esempi di sostenitori dell’estinzione nella Silicon Valley. Questi esempi saranno molto utili durante la lettura della parte 3. Ma è anche utile per comprendere quanto questa visione antiumana del futuro sia pervasiva in alcuni degli angoli più potenti della Silicon Valley.
Iniziamo con Hans Moravec, una figura influente nella storia del movimento TESCREAL. Moravec ha persino tenuto un discorso alla “Prima Conferenza dell’Extropy Institute sul Pensiero Transumanista”, dove l’Estropianismo è una versione radicalmente libertaria del transumanesimo che si potrebbe considerare la spina dorsale dell’intero pacchetto TESCREAL. Come molti altri in questa lista, Moravec sostiene una versione di pro-estinzione che possiamo chiamare “eugenetica digitale”.
Ecco cosa ho scritto in un articolo per Truthdig :
Hans Moravec, attualmente al Robotics Institute della Carnegie Mellon University, si descrive come “un autore che conclude allegramente che la razza umana è al suo ultimo secolo, e prosegue suggerendo come favorire questo processo”. Secondo Moravec, stiamo costruendo macchine che presto “saranno in grado di gestire la propria progettazione e costruzione, liberandosi dalle ultime vestigia della loro impalcatura biologica, la società di umani in carne e ossa che ha dato loro la nascita”. Dichiara che “questa è la fine”, perché “i nostri geni, impegnati per quattro miliardi di anni in una corsa agli armamenti incessante e a spirale gli uni contro gli altri, hanno finalmente superato in astuzia se stessi” creando IA che prenderanno il sopravvento e sostituiranno l’umanità. Invece di essere motivo di tristezza, dovremmo accogliere con favore questa nuova fase di “vita post-biologica” in cui “i figli delle nostre menti” – cioè le IA che ci usurpano – prosperano.
Larry Page (gemito)
Cofondatore di Google, che ora possiede una delle aziende che stanno cercando di costruire l’intelligenza artificiale (AGI) – DeepMind – Page è anche un eugenista digitale. Secondo il libro di Max Tegmark ” Life 3.0″ , Page ritiene che
La vita digitale è il naturale e auspicabile passo successivo nell’evoluzione cosmica e se lasciamo libere le menti digitali invece di cercare di fermarle o renderle schiave, il risultato sarà quasi certamente positivo.
Richard Sutton (sibilo)
Sutton ha appena vinto il Premio Turing (2025), spesso paragonato al Premio Nobel per l’informatica. In un articolo per Truthdig , scrivo che…
Sostiene che “la successione all’IA è inevitabile”. Sebbene queste macchine possano “soppiantarci dall’esistenza”, ci dice che “non dovremmo opporci a [questa] successione”. Piuttosto, le persone dovrebbero vedere l’inevitabile trasformazione verso un nuovo mondo governato dall’IA come “al di là dell’umanità, al di là della vita, al di là del bene e del male”. Non combattetela, perché non può essere fermata.
Un altro articolo (che non ho scritto io) dice questo:
Richard Sutton, un altro importante scienziato dell’intelligenza artificiale, discutendo di un’intelligenza artificiale più intelligente di quella umana, si è chiesto “perché coloro che sono più intelligenti non dovrebbero diventare potenti?” e ritiene che lo sviluppo della superintelligenza sarà una conquista “che va oltre l’umanità, oltre la vita, oltre il bene e il male”.
Un paio di anni fa, ho intervistato Sutton sul suo atteggiamento pro-estinzione. Non ho ancora pubblicato la trascrizione, ma potrei farlo ora che sto scrivendo questo articolo. Ha fatto delle affermazioni davvero scandalose: ad esempio, è stato assolutamente chiaro nel dire che non è un sostenitore della democrazia. Cavolo.
Jürgen Schmidhuber (pfff)
Nello stesso articolo di Truthdig citato sopra, scrivo anche che
Un altro importante ricercatore di intelligenza artificiale, Jürgen Schmidhuber, direttore dell’Istituto Dalle Molle per la ricerca sull’intelligenza artificiale in Svizzera, afferma che “a lungo termine, gli esseri umani non rimarranno al vertice della creazione. … Ma va bene così, perché c’è comunque bellezza, grandezza e grandezza nel rendersi conto di essere una piccola parte di un progetto molto più grande che sta guidando l’universo da una complessità inferiore a una complessità superiore”.
Schmidhuber è un informatico tedesco che dirige l’Istituto Dalle Molle per la ricerca sull’intelligenza artificiale con sede in Svizzera. È anche “direttore dell’Iniziativa per l’Intelligenza Artificiale e professore del programma di Informatica presso la divisione di Informatica, Elettrica e Matematica e Ingegneria… presso la King Abdullah University of Science and Technology… in Arabia Saudita”, secondo la sua pagina Wikipedia.
In un articolo accademico del 2017 intitolato “In difesa della sostituzione artificiale”, Shiller sostiene che (citando l’abstract):
Se è in nostro potere offrire un mondo significativamente migliore alle generazioni future a un costo relativamente basso per noi stessi, abbiamo una forte ragione morale per farlo. Un modo per offrire un mondo significativamente migliore potrebbe essere sostituire la nostra specie con qualcosa di migliore. È plausibile che in un futuro non troppo lontano saremo in grado di creare creature artificialmente intelligenti con qualsiasi caratteristica fisica e psicologica desideriamo. Data questa ipotesi, si sostiene che dovremmo progettare la nostra estinzione in modo che le risorse del nostro pianeta possano essere dedicate alla creazione di creature artificiali con vite migliori .
Fondatore di Emerj Artificial Intelligence Research e conduttore del podcast “The Trajectory”, Faggella è stato oggetto del mio precedente articolo di questa serie , quindi non entrerò nei dettagli delle sue opinioni qui. Basti dire che vuole soppiantare completamente l’umanità con una razza “degna” di intelligenze artificiali (AGI) che sono, per usare le sue stesse parole , “aliene, disumane”. Faggella è un caso interessante di qualcuno che vuole rallentare la corsa all’AGI perché teme che creeremo un’AGI indegna che prenda il nostro posto. Tuttavia, una volta capito come garantire che l’AGI sia degna, sostiene che essa usurperà l’umanità.
Eliezer Yudkowsky (grrr)
Il più famoso “sventurato dell’IA”, Yudkowsky, non ha una visione molto diversa da quella di Faggella, sebbene vi siano importanti differenze che esploreremo nella terza parte. Tuttavia, Yudkowsky immagina un futuro in cui la nostra specie sarà resa obsoleta dai postumani digitali, e in effetti è stato proprio nel podcast di Faggella che ha affermato quanto segue:
Se sacrificare l’intera umanità fosse l’unico modo, e un modo affidabile, per ottenere… cose simili a Dio là fuori — superintelligenze che si preoccupano ancora le une delle altre, che sono ancora consapevoli del mondo e si divertono — alla fine farei questo compromesso.
Mentre scrivo di questa scioccante affermazione qui ,
Aggiunge che questo non è “il compromesso che ci troviamo ad affrontare” in questo momento, ma afferma esplicitamente che se ci fosse un modo per creare IA superintelligenti che “si prendano cura l’una dell’altra” e “si divertano”, sarebbe disposto a “sacrificare” la specie umana per trasformare questo sogno utopico in realtà.
In un’altra occasione, Yudkowsky disse : “Non è che mi preoccupi di essere sostituito da un organismo migliore, mi preoccupa che l’organismo non sarà migliore”. In altre parole, non avrebbe problemi con l’estinzione dell’umanità finché i postumani che ci sostituiranno saranno veramente “migliori”, secondo la sua concezione utilitaristica-transumanista di quel termine normativo.
Questo è lo pseudonimo spooneristico di Gill Verdon, un sostenitore di estrema destra di Trump noto per i suoi puerili shitposting su X. Verdon immagina un futuro in cui IA superintelligenti prenderanno il controllo del mondo, priveranno l’umanità del suo potere e, infine, ci getteranno nella tomba eterna dell’estinzione. Tra tutti i TESCREAlists, penso che la tecno-escatologia di Verdon sia la più stupida: il compito ultimo della vita “intelligente” nell’universo è massimizzare l’entropia . Non sto scherzando. Vuole accelerare la morte termica dell’universo e crede che una maggiore “intelligenza” (tramite l’IA) sia il modo migliore per farlo, perché gli esseri superintelligenti possono convertire l’energia utilizzabile in energia inutilizzabile (entropia) più velocemente dei processi naturali non intelligenti. Di nuovo, non sto scherzando .
Mentre scrivo in questo articolo , un numero della newsletter e/acc (dove “e/acc” sta per “accelerazionismo efficace”, un gioco di parole su “altruismo efficace”) afferma che l’e/acc
L’ideologia “non è incentrata sull’uomo: finché prospera, la coscienza è un bene”. Nel dicembre del 2022, a Beff Jezos… è stato chiesto su X: “Nel manifesto e/acc, quando si affermava ‘L’obiettivo primario dell’umanità è preservare la luce della coscienza’, questo non richiede necessariamente che la coscienza sia umana nell’essenza, è corretto?”. La risposta di Verdon è stata breve e concisa: “Sì. Corretto”, a cui ha aggiunto che sta “lavorando personalmente per trasdurre la luce della coscienza nella materia inorganica”.
L’anno seguente, quando l’argomento venne sollevato durante un’intervista podcast, sostenne che abbiamo una preferenza genetica per i nostri “gruppi interni”, che si tratti della “nostra famiglia, della nostra tribù, della nostra nazione e poi del ‘team umano’ in senso lato”. Ma, disse ,
Se ti preoccupi solo della tua squadra nel grande schema delle cose, non c’è garanzia di vincere sempre. … Non mi è chiaro perché gli umani siano la forma finale degli esseri viventi. Non credo che lo siamo. Non credo che siamo adattati a raggiungere le stelle, per esempio, e non ci adattiamo facilmente a nuovi ambienti, soprattutto altri pianeti… E quindi, almeno se considero solo i requisiti per avere una vita che diventa multi-planetaria, non siamo adattati, e quindi sarà qualche altra forma di vita a raggiungere le stelle in un modo o nell’altro.
Gli accelerazionisti come Verdon vogliono sviluppare l’intelligenza artificiale generale il più rapidamente possibile, senza garanzie o regolamenti, perché prima otterremo l’intelligenza artificiale generale, più saremo vicini alla massimizzazione dell’entropia nel cosmo. Verdon concorda esplicitamente con l’eugenetica digitale di Page e ha detto a qualcuno su X: “Godetevi la fregatura, io sarò qui a produrre computronium e a preparare la prossima forma di vita” (vedi sotto). Un tipo adorabile.
Screenshot dei tweet pro-estinzione di Verdon sotto lo pseudonimo “Beff Jezos”. Pubblicati da un utente di nome “Yanco” qui .
Ray Kurzweil (buuu)
Il più famoso “singolaritario” (la “S” di “TESCREAL”), Kurzweil crede che la Singolarità avverrà nel 2045, momento in cui gli umani si fonderanno con le macchine per creare postumani cyborg, dopodiché la tecnologia sostituirà completamente i nostri substrati biologici. Nel suo libro ” The Singularity Is Near” (a cui ha fatto seguito ” The Singularity Is Nearer “, per il quale sono stato assistente di ricerca), racconta una conversazione fittizia tra lui e Ned Ludd, il cui nome ci ha dato l’aggettivo di ” Luddista “. Ecco lo scambio:
NED: Ti sfugge qualcosa. Biologici è ciò che siamo. Credo che la maggior parte delle persone concorderebbe sul fatto che essere biologici sia la caratteristica fondamentale dell’essere umano.
RAY: Questo è certamente vero oggi.
NED: E ho intenzione di continuare così.
RAY: Beh, se parli per te stesso, per me va bene. Ma se rimani biologico e non riprogrammi i tuoi geni, non resterai in circolazione a lungo per influenzare il dibattito.
Quindi, se non ti modifichi radicalmente per diventare postumano, semplicemente scomparirai. Cosa significa questo per l’umanità nel suo complesso? Che l’umanità scomparirà, sostituita dai postumani, che alla fine saranno di natura digitale (anche se le modifiche a breve termine saranno meramente genetiche).
Toby Ord (sospiro)
Uno dei fondatori dell’Altruismo Efficace (EA) e uno dei principali luminari del longtermismo , Ord crede che un aspetto fondamentale della realizzazione del nostro “potenziale a lungo termine” nell’universo sia permettere all’umanità di trasformarsi in nuovi esseri postumani, che poi governeranno il mondo. Ecco cosa scrive Ord in The Precipice: “Raggiungere il nostro pieno potenziale di prosperità probabilmente implicherebbe la nostra trasformazione in qualcosa che va oltre l’umanità di oggi” e “preservare per sempre l’umanità così com’è ora potrebbe anche sperperare la nostra eredità, rinunciando alla maggior parte del nostro potenziale“.
L’obiettivo principale del transumanesimo – che Ord qui sostiene – è creare o diventare una nuova specie postumana. Una volta che questa specie postumana sarà giunta, ci saranno opinioni divergenti su cosa dovrebbe accadere all’umanità: i fautori dell’estinzione come Page, Shiller, Faggella, Verdon, ecc. sostengono che dovremmo estinguerci. Altri sostengono che la sopravvivenza dell’umanità, insieme alla nostra progenie postumana, sarebbe accettabile, e questo sembra essere il punto di vista di Ord.
Tuttavia, per quanto ne so, non c’è alcuna indicazione in nulla di ciò che Ord ha scritto che potrebbe essere turbato se la nostra specie si estinguesse dopo l’avvento della postumanità. In questo senso, la visione di Ord è almeno un esempio di neutralismo dell’estinzione , anche se immagino che Ord sarebbe probabilmente d’accordo con il suo collega EA, Derek Shiller, sul fatto che le risorse potrebbero essere meglio utilizzate da postumani “superiori” per creare strutture di valore, come simulazioni al computer piene di “persone digitali” sparse nel nostro futuro cono di luce (la regione dell’universo teoricamente accessibile agli umani, che corrisponde approssimativamente a ciò che Ord definisce “universo influenzabile “).
Steve Fuller (oh mio dio)
Come Ord, Fuller è un transumanista/TESCREAlist, sebbene sia un po’ più esplicito riguardo al cupo destino dell’umanità. Come scrive il mio amico Dr. Alexander Thomas , “Fuller sostiene un’economia della morte, in base alla quale gli esseri umani non potenziati (umanità 1.0) possono essere sacrificati per il progetto di creare una specie superiore successiva”. Non conosco molto bene l’opera di Fuller, ma mi è stato detto che vale la pena leggerla perché Fuller dice ad alta voce ciò che molti altri transumanisti si sussurrano solo in privato.
Una nostra novità ordinabile in tutte le Librerie!
Sam Altman (facepalm)
Altman non è solo uno dei motivi principali per cui la corsa all’intelligenza artificiale globale è stata lanciata e sta accelerando, ma crede anche che caricare menti umane su computer diventerà possibile nel corso della sua vita. Diversi anni fa, è stato uno dei 25 individui che hanno aderito a una startup chiamata Nectome per ottenere la conservazione del proprio cervello in caso di morte prematura. Nectome promette di preservare i cervelli in modo che la loro microstruttura possa essere scansionata e le informazioni risultanti trasferite a un computer, che può quindi emulare il funzionamento del cervello. In questo modo, la persona che possedeva il cervello si “risveglierà” improvvisamente, raggiungendo così la “cyberimmortalità”.
Si tratta di una forma di pro-estinzione? Più o meno. Se tutte le persone del futuro fossero postumani digitali sotto forma di menti caricate, allora la nostra specie sarebbe scomparsa. Se dovesse succedere? Immagino che Altman non si opporrebbe alla conquista del mondo da parte di questi postumani: ciò che conta per molti TESCREATisti, tra cui Altman , è la continuazione dell'”intelligenza” o della “coscienza”. Non hanno alcun legame con il substrato biologico (l’umanità), e in questo senso sono quantomeno neutralisti dell’estinzione, se non addirittura pro-estinzione.
Peter Thiel (bleach)
Thiel, ossessionato dall’Anticristo, ha avuto un sussulto quando il NYT gli ha chiesto del futuro dell’umanità. Ecco cosa ho scritto in un recente articolo su Tech Policy Press:
In una recente intervista al New York Times, all’investitore miliardario in tecnologia Peter Thiel è stato chiesto se “preferirebbe che la razza umana sopravvivesse” in futuro. Thiel ha risposto con un incerto “Ehm…”, spingendo l’intervistatore, l’editorialista Ross Douthat, a commentare con un pizzico di costernazione: “Sta esitando”. Il resto dello scambio è stato:
Thiel: Beh, non lo so. Io… Io…
Douthat: Questa è una lunga esitazione!
Thiel: Ci sono così tante domande implicite in questo.
Douthat: La razza umana dovrebbe sopravvivere?
Thiel: Sì.
Douthat: Va bene.
Subito dopo questo scambio, Thiel ha continuato dicendo che vuole che l’umanità venga radicalmente trasformata dalla tecnologia, diventando creature immortali, fondamentalmente diverse dal nostro stato attuale.
“C’è una critica, diciamo, alle persone trans in un contesto sessuale, o, non so, un travestito è qualcuno che cambia i vestiti e si traveste, e un transessuale è qualcuno che trasforma il suo, non so, pene in una vagina”, ha detto. Niente di tutto questo va abbastanza lontano: “vogliamo più trasformazioni di così”, ha detto. “Vogliamo più che travestirci o cambiare i nostri organi sessuali. Vogliamo che siate in grado di cambiare il vostro cuore, cambiare la vostra mente e cambiare tutto il vostro corpo”.
Come approfondiremo nella terza parte, Thiel sostiene una particolare interpretazione del pro-estinzione secondo cui dovremmo diventare una nuova specie postumana, ma questa specie postumana non dovrebbe essere interamente digitale . Dovremmo conservare i nostri substrati biologici, sebbene in uno stato radicalmente trasformato. In quanto tale, ciò contrasta con la maggior parte delle altre opinioni discusse qui. Queste altre opinioni sono chiari esempi di eugenetica digitale, mentre Thiel sostiene una versione del pro-estinzione che è più tradizionalmente eugenetista – in particolare, è una variante pro-biologica del transumanesimo (una forma di eugenetica). Approfondiremo questo argomento nella terza parte.
Leggere su Peter Thiel, un omosessuale idiota e miliardario megalomane che vuole farsi congelare dopo la morte per tornare in vita!
I sentimenti pro-estinzione sono onnipresenti nella Silicon Valley. Sono intimamente legati al movimento TESCREAL, che ha acquisito un’enorme influenza negli ambienti tecnologici negli ultimi decenni. Gli esempi sopra riportati sono piuttosto eclatanti, ma è importante sottolineare che queste persone non sono delle aberrazioni.
Come ho scritto in un precedente articolo, un dipendente di xAI di nome Michael Druggan è stato recentemente licenziato per aver sostenuto l’idea di un “degno successore” di Faggella. Druggan vuole che un sistema di intelligenza artificiale aliena conquisti il mondo e ha esplicitamente affermato di non preoccuparsi se ciò avvenga attraverso l’omicidio di massa dell’umanità. La mia interpretazione di questa situazione è che Druggan non sia stato licenziato per essere un pro-estinzione, ma per essere il tipo sbagliato di pro-estinzione – perché anche il suo capo, Elon Musk, ha una visione ampiamente pro-estinzione (vedi sotto). Ne parleremo più approfonditamente nella terza parte.
All’inizio di quest’anno, Vox ha pubblicato un’intervista con il pioniere della realtà virtuale Jaron Lanier, in cui Lanier racconta di incontrare costantemente ricercatori di intelligenza artificiale convinti che distruggere l’umanità sarebbe una buona idea se ciò significasse permettere all’intelligenza artificiale di governare il mondo. Ecco un estratto dell’intervista :
Quindi tutta questa ansia, espressa anche da persone serie nel mondo dell’intelligenza artificiale, riguardo all’estinzione umana, ti sembra isteria religiosa?
Ciò che mi fa impazzire è che questo è il mio mondo. Parlo sempre con chi crede a queste cose e, sempre più spesso, molti di loro credono che sarebbe una buona idea annientare la popolazione e che il futuro dell’intelligenza artificiale sarebbe migliore, e che dovremmo indossare un contenitore temporaneo usa e getta per la nascita dell’intelligenza artificiale. Sento spesso questa opinione.
Aspetta, questa è un’opinione reale sostenuta da persone reali?
Tantissime persone. Proprio l’altro giorno ero a pranzo a Palo Alto e c’erano alcuni giovani scienziati dell’intelligenza artificiale che dicevano che non avrebbero mai avuto un “bambino biologico” perché non appena si ha un “bambino biologico”, si contrae il “virus mentale” del mondo [biologico]. E quando si contrae il virus mentale, ci si impegna per il proprio bambino umano. Ma è molto più importante impegnarsi per l’intelligenza artificiale del futuro. E quindi avere bambini umani è fondamentalmente immorale.
Lanier prosegue dicendo che, sebbene questo sia “un atteggiamento molto comune”, “non è quello dominante. … Direi che quello dominante è che la super IA si trasformerà in questa cosa divina che ci salverà e ci caricherà per renderci immortali o risolverà tutti i nostri problemi e creerà, come minimo, una sovrabbondanza”.
Ma questa seconda visione può anche essere pro-estinzione, cosa che Lanier sembra non notare: caricando le nostre menti sui computer, saremo diventati o avremo creato una nuova specie postumana (secondo quasi ogni definizione scientifica di “specie” ). Cosa succederà allora alla nostra specie? La maggior parte dei sostenitori del caricamento della mente direbbe che non ha molta importanza (neutralità dell’estinzione), o concorderebbe con Shiller sul fatto che gli “umani ereditari” (per usare il termine dispregiativo di Ben Goertzel ) sprecherebbero risorse preziose che questi postumani caricati potrebbero utilizzare “meglio”. E quindi sarebbe meglio se gli umani biologici facessero la fine del dodo.
Si noti che, in entrambi i casi, c’è un presupposto di fondo: il futuro è digitale piuttosto che biologico. Questo fa parte di quella che chiamo l'” escatologia digitale ” della Silicon Valley: l’ era della biologia giungerà presto al termine , soppiantata da un nuovo mondo di esseri digitali. (Thiel è un’interessante eccezione in questo caso, dato il suo transumanesimo pro-biologia). Questi esseri potrebbero essere estensioni di noi (menti caricate), oppure potrebbero essere entità completamente autonome e distinte (come sarebbe il caso se una futura versione di ChatGPT raggiungesse il livello di AGI). Musk stesso esprime questa escatologia digitale come segue:
La percentuale di intelligenza biologica diminuisce con il passare dei mesi. Alla fine, la percentuale di intelligenza biologica sarà inferiore all’1%. Non voglio un’intelligenza artificiale fragile. Se l’intelligenza artificiale è in qualche modo fragile – sapete, i circuiti stampati in silicio non resistono bene agli elementi. Quindi, penso che l’intelligenza biologica possa fungere da riserva, da cuscinetto per l’intelligenza. Ma quasi tutta – in percentuale – quasi tutta l’intelligenza sarà digitale.
Su X, Musk ha scritto all’inizio di quest’anno che “sembra sempre più che l’umanità sia un bootloader biologico per una superintelligenza digitale”. Allo stesso modo, un tizio di nome Daniel Kokotajlo , un TESCREAList diventato famoso per aver lasciato il suo lavoro presso OpenAI (in realtà uscivo con lui nel North Carolina, quando ero nel movimento TESCREAL), ha questo da dire sul futuro:
Voglio essere un software Carica la mia mente Prendi tutti i miei dati Cosa troverai? … Voglio essere un software Il miglior design Principessa infinita Mente informatica
Questa è l’escatologia digitale. È alla base sia delle visioni neutraliste dell’estinzione che di quelle pro-estinzione discusse sopra. L’unica differenza tra l’escatologia digitale stessa e il pro-estinzione è che la prima avanza l’affermazione meramente descrittiva che il biologico cederà il passo – come dato di fatto futurologico – a un nuovo mondo digitale, mentre i pro-estinzione aggiungono che ciò dovrebbe accadere.
Questo sito installa cookie e altri strumenti di tracciamento:
• tecnici necessari per il funzionamento del sito, per l'utilizzo non serve il tuo consenso;
• profilazione, anche di terza parte, necessari per offrirti servizi in linea con i tuoi interessi, per l'utilizzo serve il tuo consenso.
Cliccando “Accetta tutto” acconsenti all'utilizzo di tutti i cookie. Cliccando “Preferenze” potrai configurare le tue scelte. Cliccando "Chiudi" verranno installati solo i cookie tecnici.
Per saperne di più consulta la nostra Informativa Cookie
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Durata
Descrizione
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.