ChatGPT: Le “vuote promesse”, la minaccia, gli scenari distopici e la tecnofobia

Circa 2.000 ricercatori chiedono una moratoria di sei mesi e l’Italia ha bloccato ChatGPT.

“Supponi di tenere in mano una mela. Ora, lasciala andare. Vedi il risultato e dici: la mela è caduta. Questa è una descrizione. Una previsione potrebbe essere stata che la mela cade quando apro la mano. Questa descrizione e questa previsione sono preziose, entrambe sono corrette. Ma una spiegazione è di più di una descrizione e previsione. Include non solo descrizioni e previsioni, ma anche scenari ipotetici alternativi come quale oggetto cadrà. Insieme all’ulteriore sub-suggerimento che la mela cadrà a causa della gravità o della curvatura dello spazio-tempo. Una spiegazione di causa e causalità nel caso del nostro frutto sarebbe: la mela non sarebbe caduta senza la forza di gravità. Questo è pensiero”.

Con questo esempio, Noam Chomsky nel suo articolo pubblicato l’8 marzo sul New York Times ha parlato delle “vuote promesse” di ChatGPT : la nuova applicazione di Intelligenza Artificiale recentemente diventata accessibile al grande pubblico. Dopo il suo lancio, l’app, questo “amico della realtà virtuale” ha la fortuna che ha ogni nuovo strumento tecnologico che entra nella vita sociale. Dall’eccitazione alla paura. Con la Terza Legge dell’azione-reazione. Migliaia di articoli sono stati pubblicati sulle ramificazioni del nuovo visibile “intervento” dell’Intelligenza Artificiale nella vita umana, con reazioni politiche, sociali e all’interno della comunità scientifica.

In una lettera, circa 2.000 ricercatori chiedono una moratoria di sei mesi sullo sviluppo dell’Intelligenza Artificiale e l’Italia venerdì è diventata il primo paese in Occidente a vietare l’applicazione adducendo problemi di sicurezza dei dati.

“Lucchetto”

Progettato dalla società Open AI, ChatGPT è pensato per essere conversazionale: può rispondere automaticamente a domande scritte in un modo che spesso si avvicina all’umano, nella misura in cui l’uso della tecnologia è indistinguibile. E sta arrivando a stravolgere molte forme della nostra comunicazione quotidiana, come il modo in cui scriviamo le email, i documenti universitari e altro ancora.

“ChatGPT sostituirà i commentatori politici?” “ChatGPT non sostituirà mai Thomas Friedman”, titola un articolo della rivista americana Jacobin. In un altro articolo del NYT co-autore del noto autore americano, l’esperto di sicurezza informatica Bruce Schneier e l’esperto di data science Nathan Saunders parlano di “Chat GPT come minaccia al sistema politico”. Come sottolineano, ChatGPT può compilare automaticamente i commenti inviati durante il processo legislativo. Può scrivere lettere da pubblicare agli editori sui giornali locali. Può commentare articoli di notizie, post di blog e social media milioni di volte al giorno. Potrebbe imitare il lavoro dell’Internet Intelligence Service russo nel suo tentativo di influenzare le elezioni americane del 2016, ma senza richiedere il budget di diversi milioni e le centinaia di lavoratori arruolati per questo scopo.’

Dall’uscita del suo predecessore GPT-3, ChatGPT, lo scorso anno, le aziende rivali si sono affrettate a lanciare prodotti correlati e simili.

Una lettera, datata 22 marzo, che venerdì aveva raccolto 1.800 firme da membri della comunità scientifica, chiede una moratoria di sei mesi sullo sviluppo di sistemi “più potenti” del nuovo GPT-4 (il prossimo programma recentemente rilasciato da OpenAI ) supportato da Microsoft, che può effettuare “conversazioni umane”, comporre canzoni e riassumere documenti di grandi dimensioni. La lettera aperta afferma che i sistemi di intelligenza artificiale con “intelligenza che rivaleggia con l’uomo” pongono seri rischi per l’umanità, citando 12 studi condotti da esperti, inclusi accademici, nonché dipendenti attuali ed ex di OpenAI, Google e la sua controllata DeepMind.

“Una pausa nell’ulteriore sviluppo degli strumenti di intelligenza artificiale non è sufficiente. Dobbiamo mettere un “blocco su tutto questo”, ha sottolineato Eliezi Yudkovski, scienziato di teoria dei giochi e ricercatore di Intelligenza Artificiale, nel suo articolo sulla rivista TIME.

Le organizzazioni della società civile negli Stati Uniti e nell’UE stanno ora facendo pressioni sui politici eletti per frenare la ricerca OpenAI.

I critici hanno accusato il Future of Life Institute (FLI), l’organizzazione che ha pubblicato la lettera, che è principalmente finanziata dalla fondazione di Elon Musk, di dare la priorità a fantasiosi scenari di Apocalisse rispetto a preoccupazioni più immediate sull’intelligenza artificiale, come pregiudizi razziali o sessisti.

Quid enim sum? È ora di aprire questa discussione

Reazioni all’interno della comunità scientifica

Oggi, quattro scienziati di intelligenza artificiale hanno espresso preoccupazione poiché la lettera aperta faceva riferimento ai loro studi. Tra gli studi a cui si fa riferimento nella lettera c’era uno studio su “On the Dangers of Stochastic Parrots”, un articolo co-autore di Margaret Mitchell, una scienziata informatica che lavora su pregiudizi algoritmici ed equità nell’apprendimento ingegneristico, che in precedenza ha supervisionato la ricerca sull’etica dell’IA presso Google. Mitchell, ora capo scienziato di etica presso la società di intelligenza artificiale Hugging Face, ha criticato la lettera, dicendo a Reuters che non era chiaro cosa fosse considerato “più potente di GPT4”.

“Prendendo per scontate molte idee discutibili, la lettera afferma una serie di priorità e una narrativa sull’intelligenza artificiale che avvantaggia i sostenitori di FLI “, ha affermato. “Ignorare il danno attivo in questo momento è un privilegio che alcuni di noi non hanno”, ha osservato.

Mitchell, Timnit Gebrow, Emily M. Bender e Angelina McMillan Major hanno successivamente pubblicato una risposta alla lettera, accusando i suoi autori di “allarmismo e codardia nei confronti dell’IA”.

“È pericoloso essere distratti da un’utopia immaginaria creata da scenari di Intelligenza Artificiale o Apocalisse che rappresentano un futuro ‘prospero’ o ‘potenzialmente catastrofico’”, hanno scritto. “La responsabilità non è dei manufatti ma dei loro fabbricanti”, hanno detto.

Il presidente della FLI Max Tegbark ha detto a Reuters che la lettera non era un tentativo di ostacolare il vantaggio aziendale di OpenAI. “È piuttosto divertente sentire la gente dire che Elon Musk sta cercando di rallentare la concorrenza”, ha detto, sostenendo che Musk non ha avuto alcun ruolo nella stesura della lettera. “Non è una questione di una società.”

Siri Dorey-Hacohen, assistente professore presso l’Università del Connecticut, ha detto a Reuters di essere d’accordo con alcuni punti della lettera, ma ha contestato il modo in cui il suo lavoro è stato riportato. L’anno scorso è stato autore di un documento di ricerca che ha evidenziato i gravi rischi posti dall’uso diffuso dell’intelligenza artificiale. La sua ricerca ha sostenuto che l’uso odierno dei sistemi di intelligenza artificiale potrebbe influenzare il processo decisionale in relazione al cambiamento climatico, alla guerra nucleare e ad altre minacce alla specie. “L’intelligenza artificiale non ha bisogno di acquisire intelligenza a livello umano per esacerbare questi rischi (…) “Ci sono rischi inesistenti che sono davvero, davvero importanti, ma non ricevono la stessa attenzione in stile Hollywood”, ha sottolineato Dorrie-Hacohen.

Raggiunto per un commento, Tegbark di FLI ha affermato che sia i rischi a breve che a lungo termine dell’IA dovrebbero essere presi sul serio.

“Tra l’intera gamma di potenziali preoccupazioni che sono state espresse dagli esperti di intelligenza artificiale, dai rischi ai dati personali alle preoccupazioni anche sull’eventuale estinzione dell’umanità, ci sono una miriade di poste in gioco intermedie, anche perché ChatGPT e altri programmi simili quando rispondono, non si limitano a estrarre informazioni da Internet, ma inventano le proprie risposte. E infatti, “con l’unico scopo di «soddisfare» l’utente, cosa che non otterrebbe se rispondesse di non conoscere la risposta alla domanda che gli è stata posta”, afferma Philippos Papagiannopoulos, ricercatore post-dottorato al Pantheon-Sorbonne Università, ad APE-MPE Parigi.

“Per avere un’idea di come costruisce e «inventa» le informazioni e le risposte che ChatGPT ti dà, chiedigli quali sono le “canzoni più famose scritte da Alekos Fasianos” o “i libri scientifici di Giorgos Seferis”. “Sarai sorpreso di quanto siano plausibili le risposte, completamente inventate, che otterrai,solo per dare all’algoritmo l’impressione che tu l’abbia trovato utile”, sottolinea Papagiannopoulos.

PAUSE & TALK. Un manifesto per rallentare lo sviluppo dell’intelligenza artificiale e pensare

Primo “stop” governativo. Tecnofobia sovranista?

Dan Hendricks, direttore del Center for the Security of Artificial Intelligence con sede in California, anch’esso citato nella lettera, ne ha mantenuto il contenuto, dicendo a Reuters che ha senso esaminare la “Teoria del cigno nero” (questo evento imprevedibile che si svolge in ogni serie di eventi possibili e ordinari in qualsiasi attività di una società, e ne stravolge drammaticamente in peggio o in meglio la sua struttura).

La lettera aperta ha anche avvertito che gli strumenti di produzione di intelligenza artificiale potrebbero essere utilizzati per inondare Internet di “propaganda e bugie”.

Ieri, OpenAI ha messo offline ChatGPT in Italia dopo che venerdì l’autorità governativa per la protezione dei dati personali ha temporaneamente vietato il chatbot, avviando un’indagine sulla sospetta violazione delle regole sulla privacy da parte dell’app OpenAI. L’autorità governativa italiana, nota anche come Garante, ha accusato OpenAI di non controllare l’età degli utenti di ChatGPT che dovrebbero avere almeno 13 anni.

In ChatGPT “non esiste alcuna base giuridica che giustifichi la raccolta e l’archiviazione in massa di dati personali” per “addestrare” il chatbot, ha sottolineato il Garante. OpenAI ha 20 giorni per rispondere con misure correttive e rischia una multa fino a 20 milioni di euro o il 4% del suo fatturato globale annuo. OpenAI ha dichiarato di aver disabilitato ChatGPT per gli utenti in Italia su richiesta del Garante. “Stiamo lavorando attivamente per ridurre la raccolta di dati personali durante l’addestramento dei nostri sistemi di IA, come ChatGPT, perché vogliamo che l’IA impari a conoscere il mondo, non gli individui “, ha aggiunto OpenAI.

Il chatbot non è inoltre disponibile in Cina, Hong Kong, Iran e Russia e in alcune parti dell’Africa dove i residenti non possono creare account OpenAI.

Dal suo lancio lo scorso anno, ChatGPT ha scatenato la concorrenza, spingendo i concorrenti a lanciare prodotti e aziende simili per integrarlo o tecnologie simili nelle loro app e prodotti.

Il rapido sviluppo della tecnologia ha attirato l’attenzione dei politici eletti in molti paesi. Molti esperti affermano che sono necessarie nuove normative per governare l’IA a causa del potenziale impatto sulla sicurezza nazionale, sul lavoro e sull’istruzione.

“Ci aspettiamo che tutte le aziende che operano nell’UE rispettino le norme sulla protezione dei dati dell’UE. L’applicazione del regolamento generale sulla protezione dei dati è responsabilità delle autorità di protezione dei dati dell’UE”, ha affermato un portavoce della Commissione europea.

La Commissione, che sta discutendo la legislazione dell’UE sull’intelligenza artificiale, potrebbe non muoversi per vietare tali strumenti di intelligenza artificiale, ha dichiarato su Twitter il vicepresidente esecutivo della Commissione europea Margrethe Vestager.

“Indipendentemente dal tipo di tecnologia che utilizziamo, dobbiamo continuare a promuovere le nostre libertà e proteggere i nostri diritti. Ecco perché non regoliamo le tecnologie AI, regoliamo gli usi dell’IA”, ha affermato. “Non buttiamo via in pochi anni ciò che ha richiesto decenni per essere costruito”.

Fonte: kathimerini.gr, e altre fonti.