L’ascesa della superintelligenza: siamo preparati per le menti create artificialmente?

 

Stanno emergendo visioni nettamente contrastanti: alcuni temono che l’intelligenza artificiale possa porre fine all’era umana nel corso della nostra vita, mentre altri ritengono che queste preoccupazioni siano esagerate e distraggano dalle preoccupazioni pratiche. Ma entrambe le parti concordano sul fatto che man mano che i sistemi di intelligenza artificiale diventano sempre più avanzati, i ricercatori hanno la profonda responsabilità di perseguire il progresso in modo sicuro ed etico.

Nel 1993, l’acclamato autore di fantascienza e scienziato informatico Vernor Vinge fece una previsione audace: entro 30 anni, i progressi tecnologici avrebbero consentito la creazione di un’intelligenza artificiale che supererebbe l’intelligenza umana, portando alla “fine dell’era umana”.

Vinge ha teorizzato che una volta che l’intelligenza artificiale fosse diventata capace di migliorarsi ricorsivamente, avrebbe innescato un ciclo di feedback di miglioramenti rapidi ed esponenziali ai sistemi di intelligenza artificiale. Questo ipotetico momento in cui l’intelligenza artificiale supera l’intelligenza umana è diventato noto come “la singolarità”.

Sebbene nel 1993 le previsioni sull’intelligenza artificiale sovrumana potessero sembrare inverosimili, oggi vengono prese sul serio da molti esperti di intelligenza artificiale e investitori tecnologici che cercano di sviluppare “intelligenza artificiale generale” o AGI – un’intelligenza artificiale in grado di eguagliare pienamente le prestazioni umane in qualsiasi compito intellettuale.

Roman Yampolskiy, eminente ricercatore sull’intelligenza artificiale, spiega: “Il punto è che, una volta che le macchine prendono il sopravvento sul processo di scienza e ingegneria, il progresso è così rapido che non è possibile tenere il passo”. Yampolskiy ne vede un microcosmo nel suo campo di ricerca sull’intelligenza artificiale, dove le nuove innovazioni vengono pubblicate a un ritmo troppo rapido perché gli esperti possano rimanere aggiornati. Lui e altri credono che l’AGI potrebbe innescare un ciclo sfrenato di miglioramenti, consentendo alle macchine di accelerare la comprensione scientifica e l’innovazione tecnologica oltre la comprensione umana.

Una volta sviluppato, un sistema AGI potrebbe essere incaricato di progettare sistemi di intelligenza artificiale ancora più capaci, progredendo a un ritmo che nessun ricercatore umano potrebbe eguagliare. Questo scenario allarma ricercatori come Yampolskiy, il quale sostiene che poiché gli esseri umani non possono prevedere o comprendere in modo affidabile le capacità dei sistemi AGI, non saremo in grado di controllarli o contenerli. Per Yampolskiy, l’unico modo per evitare conseguenze catastrofiche è evitare in primo luogo di costruire l’AGI.

Tuttavia, l’opinione degli esperti rimane contrastante sulla fattibilità e sui rischi dell’AGI. In un sondaggio del 2022 condotto su oltre 700 ricercatori sull’intelligenza artificiale dal think tank AI Impact, solo il 33% ha considerato uno scenario AGI incontrollabile “probabile” o “abbastanza probabile”, mentre il 47% lo ha considerato “improbabile” o “abbastanza improbabile”.

Critici come Sameer Singh, ricercatore di intelligenza artificiale presso l’UC Irvine, sostengono che le speculazioni sull’AGI e sulla Singolarità distraggono dalle pressanti questioni del mondo reale poste dai sistemi di intelligenza artificiale di oggi, inclusi pregiudizi, spostamento di posti di lavoro e preoccupazioni legali sulla generazione di contenuti. Singh ritiene che l’eccessiva attenzione ai futuri speculativi distolga l’attenzione da questi problemi concreti che devono essere affrontati ora.

“È molto più emozionante parlare del raggiungimento di questo obiettivo fantascientifico che della realtà delle cose”, afferma. Singh sostiene le richieste di una moratoria sullo sviluppo di un’intelligenza artificiale più potente rispetto a modelli come GPT-3 per dare ai ricercatori il tempo di studiare rischi ed etica.

Il dibattito sull’AGI evidenzia una crescente spaccatura nella comunità dell’intelligenza artificiale. Pionieri come Geoffrey Hinton e Yoshua Bengio hanno espresso dubbi sulla traiettoria del settore, invitando alla cautela nello sviluppo di sistemi di intelligenza artificiale sempre più capaci.

Yampolskiy sostiene una moratoria, sostenendo che “l’unico modo per vincere è non farlo”. Ma molti dei principali laboratori di intelligenza artificiale investono molto nella corsa per costruire modelli sempre più potenti e la società delle scommesse trarrà vantaggio dall’andare avanti. Con miliardi di finanziamenti disponibili, la pressione per far avanzare le capacità dell’intelligenza artificiale rimane intensa.

Stanno emergendo visioni nettamente contrastanti: alcuni temono che l’intelligenza artificiale possa porre fine all’era umana nel corso della nostra vita, mentre altri ritengono che queste preoccupazioni siano esagerate e distraggano dalle preoccupazioni pratiche. Ma entrambe le parti concordano sul fatto che man mano che i sistemi di intelligenza artificiale diventano sempre più avanzati, i ricercatori hanno la profonda responsabilità di perseguire il progresso in modo sicuro ed etico.

Come guidare un settore in rapida accelerazione offuscato dall’incertezza? Per ora, la competizione tra speculazioni drammatiche e richieste pragmatiche di supervisione rimane irrisolta. Ma le scelte che i ricercatori fanno oggi potrebbero avere risonanza per le generazioni a venire.


https://www.asterios.it/catalogo/epimente