Nick Bostrom: L’intelligenza artificiale è più pericolosa del cambiamento climatico

L’evoluzione dell’intelligenza artificiale (AI) rappresenta una minaccia per l’esistenza umana più grave del cambiamento climatico ? È quanto crede Nick Bostrom, professore di filosofia all’Università di Oxford, dove nel 2005 ha fondato e da allora dirige il Future of Humanity Institute.

Laureato in Filosofia, Matematica, Fisica e Neuroscienze Computazionali, Bostrom, che ha più di 200 pubblicazioni tradotte in più di 30 lingue, è stato nominato due volte nell’elenco dei 100 migliori pensatori globali della rivista Foreign Policy, tra le altre classifiche corrispondenti.

Il suo libro “Superintelligence: Paths, Dangers, Strategies” , pubblicato nel 2014, ha scalato rapidamente la lista dei best-seller del New York Times e ha fatto conoscere il professor Bostrom al grande pubblico. La rivista New Yorker ha scritto un ampio articolo sul filosofo svedese che ha predetto le sfide esistenziali che l’intelligenza artificiale porrà all’umanità. “Lo consiglio vivamente”, ha detto Bill Gates del libro. “Vale la pena leggerlo”, disse all’epoca Elon Musk, “dobbiamo stare molto attenti con l’intelligenza artificiale”. Sam Altman, CEO di OpenAI e creatore di ChatGPT, ha affermato che il signor Bostrom ha profondamente influenzato il suo lavoro, affermando che il suo libro è il migliore che abbia visto sul tema dei rischi dell’IA. Nick Bostrom parla , tra gli altri, di questi rischi in questa intervista a “K” .

“Penso che ci stiamo muovendo rapidamente verso livelli più elevati di intelligenza artificiale generale”, afferma tramite videochiamata. “Se questo ritmo di progresso continua, presto raggiungeremo livelli di intelligenza artificiale trasformativi: dovremmo iniziare a pensare seriamente a cosa potrebbe accadere se arrivassimo a un livello di intelligenza artificiale in grado di fare ciò che fanno gli esseri umani”, osserva. Se ci arriviamo, non passerà molto tempo prima che si sviluppi la superintelligenza: “avremo cose che possono fare quello che fanno gli esseri umani, ma molto meglio, e poi affronteremo sfide diverse e molto importanti”, dice.

Tre categorie

I principali si dividono in tre categorie, aggiunge Bostrom. In primo luogo, nel modo in cui creeremo metodi scalabili per il controllo dell’intelligenza artificiale, “in modo da poter guidare queste menti potenti a fare ciò che vogliamo che facciano”, spiega.

La seconda categoria riguarda la governance e in particolare il modo in cui, in un mondo in cui le persone ricevono potere da queste potenti aggiunte mentali, possiamo essere sicuri che verranno utilizzate per scopi positivi.

Conversazioni attuali sull'intelligenza artificiale

La terza sfida finora ha ricevuto meno attenzione, dice. Riguarda lo status morale delle menti digitali. “Finora le applicazioni dell’intelligenza artificiale sono state strumenti, come un martello o un cacciavite”, sottolinea. “Ma”, aggiunge, “ad un certo punto queste menti digitali sempre più complesse che stiamo costruendo inizieranno probabilmente ad acquisire diversi livelli di status morale, il che significa che non importerà solo quello che ci fanno o quello che ci facciamo a vicenda”. usandoli, ma ciò che faremo loro sarà una sfida morale significativa.” Esistono linee guida etiche per gli esperimenti medici sui topi, dice. “Se disponi di sistemi di intelligenza artificiale che hanno la stessa percezione cognitiva di un topo, è probabile che avranno uno status morale simile, e se la loro percezione cognitiva è maggiore, allora il loro status potrebbe cambiare”, spiega. “Se hanno un concetto di sé sufficientemente complesso che persiste nel tempo; se hanno preferenze e capacità di rispondere alla ragione, di avere rapporti reciproci con le persone, allora avranno anche uno status morale”, sottolinea Bostrom. situazione che potrebbe verificarsi anche con un sofisticato ChatGPT.

Naturalmente, all’intelligenza artificiale possono applicarsi regole etiche diverse rispetto a noi, poiché le nostre esigenze sono diverse. Un uomo deve mangiare, per esempio. “L’intelligenza artificiale potrebbe aver bisogno di una fornitura costante di elettricità”, afferma. “Dovremo ripensare il mondo da zero quando inizieremo a coesistere con queste sofisticate menti digitali.”

Possiamo dire con maggiore certezza che il cambiamento climatico avverrà perché sta già accadendo, ma nella maggior parte degli scenari non causerà l’estinzione della specie umana, dice. “Ovviamente avrà effetti negativi su molti ecosistemi e molte popolazioni umane”, dice, “ma se parliamo di scenari di effettiva estinzione della specie umana, penso che sia più probabile che derivi da un uso improprio della superintelligenza”.

Cosa può andare storto

Nick Bostrom non intende dire che i robot umanoidi conquisteranno il mondo. Potremmo creare nuove armi biologiche o altri mezzi così potenti da distruggere la nostra specie. Potremmo, con l’aiuto dell’intelligenza artificiale, sviluppare metodi terribilmente sofisticati di sorveglianza, censura e manipolazione che consentiranno ai regimi totalitari di sviluppare un’immunità perpetua ai tentativi di rovesciarli. “I paesi che ora non sono totalitari possono essere rafforzati con un cambiamento nelle infrastrutture di controllo”, aggiunge.

Dovremmo iniziare a pensare seriamente a cosa potrebbe accadere se raggiungessimo il livello di intelligenza artificiale in grado di fare ciò che fanno gli esseri umani.

Gli effetti più devastanti del cambiamento climatico si realizzeranno tra pochi anni, forse addirittura tra un secolo, dice. “Con l’intelligenza artificiale si può fare molto più velocemente”, osserva, sottolineando che ciò non significa che non dovremmo affrontare entrambe le sfide contemporaneamente. C’è, ovviamente, una notevole differenza tra loro. Il cambiamento climatico non presenta vantaggi: meno progressi sono, meglio è. “Con l’intelligenza artificiale non è così, non è qualcosa di negativo da evitare, è qualcosa di molto importante che può funzionare positivamente o negativamente a seconda di come viene utilizzata.”

Al Future of Humanity Institute, presso l’Università di Oxford, stanno cercando di rispondere a domande che fino a poco tempo fa erano state ampiamente ignorate a livello accademico. “Cerchiamo di riflettere attentamente sulle questioni del ‘quadro generale’ sul futuro della civiltà umana, in relazione a cose che possono cambiare profondamente la condizione umana”, spiega Bostrom a “K.” Sono molto preoccupati per l’intelligenza artificiale e il suo rapporto con la governance e la sicurezza, ma non solo. Lavorano sulla biotecnologia, sulle questioni etiche derivanti dai possibili cambiamenti nella natura umana attraverso il miglioramento biologico, fanno analisi di rischio riguardanti diversi settori, ricercando come istituzioni e organizzazioni potrebbero essere rafforzate di fronte a diversi tipi di cambiamenti. “Abbiamo pensato un po’ al lontano futuro della maturità tecnologica della civiltà: quanto sarebbe grande, quali tecnologie avrebbe”, dice.

La simulazione

Nick Bostrom, 50 anni, è diventato noto a livello internazionale per la prima volta nel 2003 quando ha pubblicato l’argomento della simulazione, secondo il quale vale una delle tre possibilità: o, in primo luogo, che la civiltà perirà prima di raggiungere la maturità tecnologica; o, in secondo luogo, che se raggiungerà la maturità tecnologica, le civiltà future avranno perso ogni interesse nel creare simulazioni dei loro antenati; o, terzo, che se nessuna delle precedenti è vera, stiamo attualmente vivendo in una simulazione.

“Anche se siamo in una simulazione, le nostre esperienze non smettono di essere reali, la nostra realtà è ancora qualcosa con cui dobbiamo confrontarci, dobbiamo ancora mangiare per non ammalarci, per esempio”, osserva. “L’unica cosa che questo cambia è che forse ci rende più umili riguardo a ciò che comprendiamo veramente del quadro molto ampio in cui ci troviamo”, dice.

Non conosciamo, dichiara, i dettagli della Fisica. Sappiamo come è avvenuto il Big Bang, che l’evoluzione è iniziata mezzo miliardo di anni fa. “Penso che se l’argomento della simulazione regge, è possibile che ciò che stiamo vedendo sia un piccolo pezzo di una realtà molto più grande, e abbiamo molta meno idea di come sia quella realtà.”

Quanto al motivo per cui la simulazione avrebbe potuto essere creata, l’argomentazione che aveva avanzato utilizzando le frazioni e le probabilità non implicava alcuna speculazione del genere. “Potrebbe essere analogo ad alcune visioni del mondo religiose, in cui la nostra realtà sarebbe stata creata da un’intelligenza molto più elevata”, osserva Bostrom. In teoria potrebbero esserci uno o più creatori, alcuni dei quali hanno realizzato delle simulazioni, altri che sono al loro interno, aggiunge.

Quindi il professor Bostrom non crede in Dio? “Non direi questo”, risponde, e per la prima volta durante l’intervista crolla. “Potrebbe esserci un potere superiore nel mondo, e più si pensa a queste grandi domande, più ci si sente piccoli e maggiore è forse il bisogno di una mano in ciò che dobbiamo affrontare.”


https://www.asterios.it/catalogo/conoscere-nel-non-conoscere

Perché «quanti sono diventati ricchi di Cristo vedono senza vedere la bellezza indicibile di Dio stesso; ne afferrano senza toccare e ne comprendono senza comprendere l’immagine senza immagine, la forma senza forma, la figura senza figura, varia senza varietà, in una visione senza visione e in una bellezza senza composizione» (Simeone il Nuovo Teologo). Chi dunque si arricchisce di Cristo conosce, nel non conoscere, Dio stesso.


L’adeguamento

Quando si tratta di sfide legate all’intelligenza artificiale, siamo già indietro. “E continueremo a rimanere indietro perché quando tra due anni saremo in grado di affrontare le sfide dell’intelligenza artificiale di oggi, questa si sarà evoluta di più”, sottolinea. Il suo consiglio alle generazioni più giovani è di familiarizzare con l’intelligenza artificiale. Il mondo sarà molto diverso quando qualcuno che ora è uno studente diventerà di mezza età, dice. Ma se i giovani familiarizzassero presto con l’intelligenza artificiale, potrebbero diventare più adattabili alle sue nuove capacità quando arriveranno.

La cosa più importante è che tutti noi comprendiamo in quale momento viviamo, sottolinea. “Se questa immagine del mondo è corretta, è sorprendente che ci troviamo molto vicini a un punto di svolta per tutta la storia umana”, dice. “La maggior parte delle persone ha vissuto molto prima o vivrà molto più tardi: in questo momento potremmo essere molto vicini al punto che determinerà ciò che potenzialmente avverrà tra milioni di anni”, afferma. Sarebbe un peccato sonnambulo.

È ottimista riguardo al futuro della razza umana? “Sono ansiosamente ottimista”, dice ridendo. “È emozionante e nutro speranze, ma non in modo superficiale, perché non posso dire con certezza che andrà bene”, osserva. È sicuro che molto cambierà. Non è sicuro se sarà per sempre. “Dobbiamo sperare che sia una cosa positiva. E se è vero”, conclude a “K”, “allora andrà davvero molto bene”.

Iliana Magra scrive su kathimerini.gr


https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale

L’Intelligenza Artificiale aspira a diventare Mente. Il suo frutto principale è stato finora quello di farci comprendere meglio l’armonia che l’evoluzione ha fornito alla nostra.