Quid enim sum? È ora di aprire questa discussione

L’auspicata fine del genere umano

Cicerone si domanda: “Che cosa sono?”, non “Chi sono?”. Dopo 2080 anni, possiamo tentare di dare una risposta, considerando le acquisizioni di genetica, neurobiologia, studio dell’evoluzione. Il risultato è che Cicerone aveva ragione nel domandarsi cosa, e non chi, sono.

Tutti gli animali nascono sapendo qualcosa, ma sapiens è stato portato dalla sua evoluzione ad imparare troppo. Ne è risultato un processo sbilanciato, la sua mente è diventata eccessiva, priva di armonia con il corpo che la ospita.

Sapiens ha imboccato il sentiero evolutivo nel quale si specializza soprattutto la mente. Il che ci porta a fare con piacere quello che chiamiamo scienza, a fabbricare protesi e potenziare il corpo secondo un procedimento che non ha meccanismi di moderazione: oggetti che all’inizio estendevano la portata del braccio sono ora diventate bombe atomiche. Il processo è sempre più vorticosamente complesso, ci ha alla fine portato a concepire computer che estendono la portata del cervello.

Di questo processo evolutivo non abbiamo alcun controllo. La forma di istinto che chiamiamo “scienza” è la ragione intrinseca della fine prossima ventura della nostra specie. I tempi di questa nostra evoluzione solo mentale non sono in accordo con la evoluzione della realtà fisica del mondo che ci ospita, che ha i suoi.

Ernesto Di Mauro

Due mesi fa ho iniziato il “PAUSE & TALK. Un manifesto per rallentare lo sviluppo dell’IA e pensare”. (Leggi sotto il testo completo)

Un invito a tutti a spingere per un arresto temporaneo dello sviluppo dell’IA e per l’introduzione di alcune regole. Pensiamo a cosa vogliamo che l’Intelligenza Artificiale sia nella nostra vita e al ruolo che sceglieremo di ricoprire.

Ieri, Steve Wozniak (co-fondatore di Apple) ed Elon Musk insieme a una serie di altri ricercatori hanno fatto lo stesso attraverso una lettera aperta. (Leggi sotto il testo completo)

Penso sia ormai chiaro che lo sviluppo incontrollato dell’intelligenza artificiale da parte di grandi aziende con l’unico scopo di soddisfare la curiosità umana, l’arroganza e l’essere pionieri nel campo ci porterà in un vicolo cieco. Un vicolo cieco dal quale non si può uscire vincitori. Senza regole chiare, obiettivi chiari e azione comune, l’umanità dovrà affrontare tempi senza precedenti. Annegheremo nella disinformazione, saremo divisi e dovremo affrontare la più grande ondata di disoccupazione della nostra storia. Le previsioni parlano di oltre 350 milioni di disoccupati nei prossimi 3-4 anni. Quindi invito tutti a spingere quanto più possibile nella direzione della logica comune. Quella che dice che quando non conosci il mostro che sei chiamato ad affrontare, pianifichi bene e agisci con attenzione e saggezza. Non corri nella sua tana per incontrarlo solo per soddisfare la tua curiosità.

Spero che finalmente si apra la discussione. Sarà un primo passo fondamentale. Ma il tempo vola. E i tassi di crescita sono esponenziali.

https://www.asterios.it/catalogo/epimente

____________________

PAUSE & TALK

Un manifesto per rallentare lo sviluppo dell’intelligenza artificiale e pensare

Riepilogo

I firmatari di questo manifesto chiedono una regolamentazione responsabile ed etica dello sviluppo e dell’uso dell’intelligenza artificiale (AI). Ritengono che la rapida crescita dell’IA lasci poco spazio all’esame critico e alla considerazione delle ripercussioni della tecnologia e che sia fondamentale che tutte le parti interessate, inclusi accademici, ricercatori, sviluppatori, responsabili politici e il pubblico in generale, collaborino per garantire che l’intelligenza artificiale viene creata e utilizzata in modi che promuovono il bene comune e avvantaggiano tutta l’umanità. Suggeriscono di controllare lo sviluppo dell’IA, enfatizzando la giustizia economica e prevenendo discriminazioni e pregiudizi, dando la priorità all’IA open source e accessibile a tutti e agendo ora prima che sia troppo tardi.

https://www.asterios.it/catalogo/quid-enim-sum-cosa-realmente-sono

Il testo completo del Manifesto

Il tasso di miglioramento dell’intelligenza artificiale (AI) ha raggiunto un livello senza precedenti, con una crescita esponenziale che porta a percorsi e risultati inesplorati. Il progresso di questa tecnologia ha raggiunto uno stadio in cui è difficile per gli esseri umani tenere il passo, lasciandoci poco tempo o spazio per pensare, valutare e formulare giudizi deliberati con consenso globale. La corsa alla creazione di intelligenza artificiale (AI) è ora dominata da grandi aziende che investono miliardi di dollari in essa, lasciando le persone in generale come osservatori di ciò che l’IA può e farà nelle loro vite. Stiamo assistendo alla rapida crescita dell’intelligenza artificiale, che offre poco spazio all’esame critico o alla considerazione delle ripercussioni della tecnologia.

Questo manifesto è un invito all’azione per tutte le parti interessate della comunità dell’IA, inclusi accademici, ricercatori, sviluppatori, responsabili politici e il pubblico in generale, per regolamentare l’ascesa dell’IA e sottolineare la sua applicazione responsabile. Dobbiamo collaborare per garantire che l’intelligenza artificiale sia creata e utilizzata in modi che promuovano il bene comune e vadano a beneficio di tutta l’umanità. Non possiamo più permetterci di osservare semplicemente l’evoluzione di questa tecnologia; è tempo di prendere il controllo e definire il suo destino. Noi firmatari riteniamo che lo sviluppo dell’intelligenza artificiale (AI) debba essere controllato. È imperativo che noi, in quanto esseri umani, ci prendiamo il tempo per esaminare cosa vogliamo sviluppare con l’IA e cosa l’IA sostituirà nelle nostre vite, nonché le ragioni per farlo.

Dobbiamo sottolineare la giustizia economica e garantire che la creazione e l’uso dell’intelligenza artificiale non perpetuino gli attuali squilibri e pregiudizi. Inoltre, dobbiamo stare attenti nell’affrontare i pregiudizi nei sistemi e negli algoritmi di intelligenza artificiale, che possono perpetuare la discriminazione e l’esclusione. È essenziale lavorare per un futuro più inclusivo ed equo per tutti, in cui l’intelligenza artificiale sia sviluppata e utilizzata a beneficio dell’umanità nel suo insieme.

Siamo consapevoli che lo sviluppo dell’IA fino ad oggi è stato criticato più volte per aver propagato discriminazioni e pregiudizi, ed è imperativo adottare misure per prevenire tali problemi in futuro. Le questioni etiche devono essere in prima linea nella ricerca e nell’utilizzo dell’IA e dobbiamo lavorare per un futuro in cui l’IA serva gli interessi di tutti i membri della società.

Non dovremmo perseguire il massimo sviluppo dell’intelligenza artificiale senza contemplare le sue potenziali ripercussioni. Dobbiamo essere proattivi nello stabilire regole e linee guida per lo sviluppo e l’applicazione di questa potente tecnologia per garantire che venga utilizzata per il bene di tutta l’umanità.

Riteniamo che una forma di intelligenza artificiale open-source e accessibile a tutti dovrebbe avere la priorità in modo che tutti abbiano accesso alla tecnologia e possano utilizzarla per scopi utili. Questa strategia garantirà che l’intelligenza artificiale sia utilizzata a vantaggio della società nel suo insieme, anziché di pochi privilegiati.

https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale

Mettiamo in pausa e parliamo

Vogliamo che tutti i membri della comunità dell’IA, inclusi accademici, sviluppatori, responsabili politici e il pubblico in generale, si uniscano a noi nel nostro impegno per rallentare lo sviluppo dell’IA e enfatizzarne l’uso responsabile ed etico. Dobbiamo collaborare per garantire che l’IA sia creata e utilizzata in un modo che promuova il bene comune, mantenga le qualità umane e avvantaggi tutta l’umanità.

È fondamentale agire ora prima che sia troppo tardi perché lo sviluppo dell’IA sta avvenendo a un ritmo esponenziale e il suo impatto sulla società sta diventando sempre più significativo. Man mano che l’intelligenza artificiale diventa più avanzata, ha il potenziale per migliorare notevolmente molti aspetti della nostra vita, come l’assistenza sanitaria, i trasporti e l’istruzione. Tuttavia, se non ci prendiamo il tempo per considerare le potenziali conseguenze di questa tecnologia e non agiamo per mitigare eventuali effetti negativi, rischiamo di creare un futuro in cui l’IA esacerberà le disuguaglianze e le discriminazioni esistenti.

Inoltre, è importante ricordare che l’IA è uno strumento potente che può essere utilizzato nel bene o nel male a seconda della sua progettazione e implementazione. Senza un’adeguata supervisione e regolamentazione, l’intelligenza artificiale può essere utilizzata per perpetuare pregiudizi e discriminazioni umane o persino per creare sistemi armati. È fondamentale stabilire linee guida e normative etiche prima che sia troppo tardi e la tecnologia diventi troppo avanzata per essere controllata.

Inoltre, l’impatto economico e sociale dell’IA si fa già sentire ed è importante garantire che i suoi benefici siano condivisi equamente tra tutti i membri della società. Dobbiamo agire ora per garantire che l’IA sia sviluppata e utilizzata in modi che promuovano la giustizia economica e non perpetuino le disuguaglianze esistenti.

Siamo inequivocabilmente a favore dell’IA e dello sviluppo umano, ma a un ritmo che possiamo gestire, possiamo formulare giudizi informati e garantire che questo sviluppo abbia gli effetti più positivi sull’umanità.

_______________________________________

https://www.asterios.it/catalogo/ia-intelligenza-artificiale


Metti in pausa gli esperimenti di intelligenza artificiale: una lettera aperta di cittadini intelligenti!

Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.

I sistemi di intelligenza artificiale con intelligenza competitiva umana possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite [1] e riconosciuto dai migliori laboratori di intelligenza artificiale. [2] Come affermato nei Principi Asilomar AI ampiamente approvati , l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l’uomo in compiti generali, [3] e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo  sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che “Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli.” Siamo d’accordo. Quel punto è adesso.

Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 . Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. [4] Ciò non significa una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

La ricerca e lo sviluppo dell’IA dovrebbero essere riorientati per rendere i sistemi potenti e all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; supervisione e tracciamento di sistemi di intelligenza artificiale altamente capaci e ampi pool di capacità computazionali; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l’IA causerà.

L’umanità può godere di un futuro fiorente con l’IA. Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci un'”estate di intelligenza artificiale” in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. [5]   Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati in una caduta.

Note e riferimenti

[1] Bender, EM, Gebru, T., McMillan-Major, A. e Shmitchell, S. (2021, marzo). Sui pericoli dei pappagalli stocastici: i modelli linguistici possono essere troppo grandi?🦜. In Atti della conferenza ACM 2021 su equità, responsabilità e trasparenza (pp. 610-623). Bostrom, N. (2016). Superintelligenza. La stampa dell’università di Oxford. Bucknall, BS e Dori-Hacohen, S. (2022, luglio). AI attuale e a breve termine come potenziale fattore di rischio esistenziale. In  Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129). Carlsmith, J. (2022). L’intelligenza artificiale in cerca di potere è un rischio esistenziale? . arXiv preprint arXiv:2206.13353. Cristiano, B. (2020). Il problema dell’allineamento: apprendimento automatico e valori umani. Norton & Company. Cohen, M. et al. (2022). Agenti artificiali avanzati intervengono nella fornitura di ricompensa.  AI Magazine ,  43 (3) (pp. 282-293). Eloundou, T., et al. (2023). I GPT sono GPT: un primo sguardo al potenziale di impatto sul mercato del lavoro dei modelli linguistici di grandi dimensioni. Hendrycks, D. e Mazeika, M. (2022). Analisi del rischio X per la ricerca sull’IA . arXiv preprint arXiv:2206.05862. Ong, R. (2022). Il problema dell’allineamento da una prospettiva di deep learning. arXiv preprint arXiv:2209.00626. Russell, S. (2019). Compatibile con l’uomo: l’intelligenza artificiale e il problema del controllo. Vichingo. Tegmark, M. (2017). Life 3.0: essere umani nell’era dell’intelligenza artificiale. Knopf. Weidinger, L. et al (2021). Rischi etici e sociali di danno da modelli linguistici. arXiv preprint arXiv:2112.04359.

[2] Ordonez, V. et al. (2023, 16 marzo). Il CEO di OpenAI Sam Altman afferma che l’IA rimodellerà la società, riconosce i rischi: “Un po’ spaventato da questo” . Notizie dell’ABC. Perrigo, B. (2023, 12 gennaio). Il CEO di DeepMind, Demis Hassabis, invita alla cautela sull’intelligenza artificiale . Tempo.

[3] Bubeck, S. et al. (2023). Scintille di intelligenza artificiale generale: primi esperimenti con GPT-4 . arXiv:2303.12712. OpenAI (2023). Rapporto tecnico GPT-4 . arXiv:2303.08774.

[4] Esiste un ampio precedente legale: ad esempio, i principi IA dell’OCSE ampiamente adottati richiedono che i sistemi IA “funzionino in modo appropriato e non comportino un rischio irragionevole per la sicurezza”.

[5] Gli esempi includono la clonazione umana, la modifica della linea germinale umana, la ricerca sul guadagno di funzione e l’eugenetica.