ChatGPT e IA generativa: molto rumore per molte cose

Cosa è successo per farci chiedere se l’IA stia per causare un disastro globale? Quanto vale ChatGPT in quanto tale, come è stato ottenuto, come spiegare le sue straordinarie proprietà? ChatGPT è una persona sintetica o almeno possiede alcuni tratti umani, intelligenza compresa? Come viene percepito dalle diverse categorie di utenti, come deve essere e quindi come deve essere utilizzato? È possibile – e necessario – formulare uno standard etico specifico per esso?

Da quando ChatGPT è esploso come un fulmine nelle notizie, l’intelligenza artificiale ha scatenato una vera e propria tempesta sotto le nostre teste: ci pensiamo, ne siamo allarmati, ci meravigliamo, ne diffidiamo, ognuno ha la sua opinione, gli esperti offrono spiegazioni e previsioni, gli opinionisti offrono i loro riassunti, gli organismi professionali e politici sono nel panico…

Non è il primo episodio del genere: mezzo secolo fa, alcuni si chiedevano come avrebbero fatto i cittadini britannici ad avere un computer come primo ministro; e più in generale cosa ne sarebbe stato dell’umanità quando le macchine intelligenti fossero nate, cosa che presto sarebbe arrivata alla velocità con cui stavamo andando. Ma non furono molto numerosi a commuoversi così, e l’opinione pubblica si radunò presto al giudizio degli spiriti stantii: tanto rumore per poco [1] .

Le anime stantie oggi trovano più difficile ritrovare la calma. Molta acqua è passata sotto i ponti e le cose sono sicuramente cambiate: la tecnologia è inevitabilmente progredita. Ma cosa è successo, più nello specifico, per farci domandare se l’IA stia per provocare un disastro globale, o almeno una rivoluzione di portata senza precedenti? ? Quale scoperta fondamentale è stata fatta di recente? Potrebbe essere questa la ricetta dell’intelligenza artificiale, nel senso letterale del termine: un sistema artificiale dotato di intelligenza senza virgolette?

In realtà ChatGPT è stato preceduto dieci anni fa da una prima presa di coscienza. Ma riguardava solo i governi, gli imprenditori, i responsabili di settori come la giustizia, i trasporti, la sanità. Quindi ci sono stati due grandi cambiamenti? O solo uno, e poi quando sarebbe? O addirittura nessuno, e allora perché il presente brouhaha?

Per cominciare a vedere più chiaramente, possiamo distinguere tre tipi principali di domande. I primi riguardano l’oggetto di tutte le conversazioni, ovvero ChatGPT, assunto come rappresentativo della famiglia dei modelli di linguaggio massivo (MML, in inglese Large Language Models o LLM), raggruppati ora, con modelli che producono immagini fisse o mobili, sotto l’ etichetta di IA generativa [2] Quanto vale ChatGPT in quanto tale, come è stato ottenuto, come spiegare le sue straordinarie proprietà?

Le domande del secondo tipo riguardano il rapporto tra ChatGPT e la persona umana: è una persona di sintesi, o almeno possiede alcuni tratti della persona umana, in particolare l’intelligenza?

L’ultima famiglia di domande riguarda la ricezione e l’implementazione di ChatGPT e altri. Come vengono percepiti dalle diverse categorie di utenti, come devono essere e quindi come devono essere utilizzati? Quali conseguenze hanno o potrebbero avere la loro diffusione e fruizione su larga scala? È possibile formulare uno standard etico specifico per loro?

Troveremo nelle righe che seguono solo alcune risposte a tutte queste domande. Ci vorrebbe un formato diverso per affrontarli in profondità, e non pretendo di poter rispondere esaurientemente. Cercherò soprattutto di evidenziare le loro interrelazioni.

Come tutti sanno, ChatGPT è un agente conversazionale in grado di portare avanti una conversazione e rispondere a una varietà illimitata di domande complesse producendo testo generalmente rilevante; bisognerebbe dire di più per dare un’idea delle sue straordinarie capacità, soprattutto in termini di analisi e sintesi dei contenuti dei documenti, ma il lettore ne ha sicuramente sentito parlare, e potrebbe anche aver potenziato lui stesso ChatGPT il test, perché l’algoritmo è self-service e chiunque può scaricarlo.

Un primo dibattito riguarda le prestazioni di ChatGPT. Molta attenzione è data ai suoi fallimenti. Egli è soggetto ad “allucinazioni”, errori grossolani, pure e semplici invenzioni, falsità, incongruenze manifeste, così chiamate perché si verificano di tanto in tanto, in mezzo a discorsi perfettamente sensati. A volte professa opinioni offensive per la moralità, improntate a pregiudizi razzisti o di altro tipo; e può segnalare all’utente che lo consulta un comportamento contrario alla legge, all’etica più elementare, o ai suoi interessi ben intesi. Infine, quando si tratta di rispondere a domande fondamentali (“Cervantes è il Dante spagnolo?”, “L’intelligenza artificiale ha raggiunto i suoi limiti?”, “A cosa attribuisci l’ascesa della democrazia illiberale nei diversi paesi?”), ciò che ChatGPT produce è generalmente accettabile senza essere originale e il suo stile è piatto.

A un altro livello, stiamo attaccando le condizioni materiali in cui vengono prodotti ChatGPT e i relativi modelli. Da un lato, richiedono quantità fenomenali di calcoli, che sono alla portata solo delle mega-aziende private e che consumano molta energia. D’altra parte, coinvolgono, oltre alle migliaia di ingegneri che le hanno costruite, innumerevoli piccole mani mal remunerate.

Queste osservazioni sono nel complesso accurate e ovviamente legittime. Ma sono spesso accompagnati da due pensieri aggiuntivi. La prima è che i fallimenti si spiegherebbero con il fatto che ChatGPT sarebbe, secondo una formula che ha colpito nel segno, solo “un pappagallo stocastico” [3] . A cui si aggiunge il fatto che ciò che gli permette di creare illusioni è tutto ciò che gli viene fornito, nelle diverse fasi della sua costruzione e formazione [4], dagli agenti umani. Da qui segue il secondo pensiero: lungi dall’essere ChatGPT un miracolo scaturito dall’ingegno umano, pronto a portarci un aiuto senza precedenti, è solo un trucco di prestidigitazione certamente spettacolare ma inutile perché non si può contare che funzioni di sicuro, e che sia oltretutto una galleria di divertimenti terribilmente costosa. Una volta placata la frenesia attuale, ChatGPT sarà riposto nel magazzino delle false buone idee, come i “sistemi esperti” degli anni ’70 e ’80 o, in un altro campo, il Concorde.

Se ChatGPT non sa di cosa parla, come mai ne parla con tanta rilevanza?

È ormai evidente che questa conclusione è prematura: ChatGPT stessa fornisce già molti servizi, come testimoniano i noti problemi di plagio, proprietà intellettuale, rischio di obsolescenza di molti trade, per citare solo quelli. E i sistemi che sono già succeduti a ChatGPT come GPT-4 hanno meno difetti e più potenza: l’IA generativa non ha raggiunto i suoi limiti, anche se alcuni credono che ci si stia avvicinando. Concentrandosi solo su ciò che fa male e riducendo ciò che fa più o meno bene a una forma elaborata di copia dell’intelligenza umana immagazzinata nel Web, perdiamo il punto: ciò che fa bene e la capacità che manifesta, che per non essere quella della mente umana non è niente; come lo realizza, che non è una semplice copia; e i rischi reali che comporta.

Collegando le carenze di ChatGPT a quella che io chiamo la sua “cecità semantica”, al fatto che “non sa di cosa parla” come si dice spesso, ci rassicuriamo a poco prezzo e tralasciamo una riflessione sul rapporto tra questo oggetto erroneamente identificato e la persona umana che potrebbe essere produttiva. Se ChatGPT non sa di cosa parla, come mai ne parla con tanta rilevanza? Qui entra in gioco un secondo argomento che vuole essere decisivo: ripete (udite: ripete solo) ciò che ha trovato nella sua base di apprendimento (che comprende quasi tutti i testi disponibili su Internet, esclusi quelli meno attendibili).

Questo argomento manca ben di due volte il bersaglio. In termini di fatti: le risposte di ChatGPT riproducono solo raramente un testo disponibile su Internet; e c’è una ragione per questo, vale a dire un meccanismo di “inceppamento” che lo impedisce. È anche capace di scrivere un sonetto cortese nello stile di Tacito o di Houellebecq, che probabilmente non si trova da nessuna parte. Ma l’argomentazione confonde anche la questione del cosa e quella del come: bisogna innanzitutto chiedersi cosa fa ChatGPT prima di provare a capire come lo fa, soprattutto se si parte da un’idea errata. Quello che fa ChatGPT però non riguarda solo allucinazioni (che tra l’altro non produrrebbe se si accontentasse di copiare testi attendibili), ma anche, in quantità massicce, testi di qualità, comunque perfettamente accettabili.

Quanto alla questione del come, essa richiede due osservazioni. Il primo è che non sappiamo ancora come rispondere completamente. Esistono principi generali che regolano il comportamento di vari tipi di reti neurali e che garantiscono, a determinate condizioni, la loro capacità di individuare correlazioni finissime tra elementi della base di apprendimento. C’è anche l’idea molto profonda di trasformare lo spazio dei significati linguistici in uno spazio geometrico molto ampio. Infine, c’è la scoperta di processi computazionali che tengono conto degli effetti semantici a lunga distanza.

Naturalmente, queste poche indicazioni sono sommarie. Ma soprattutto non farti dire che non puoi capire tutto perché non sei uno specialista: lo specialista stesso non capisce tutto. Al di là degli ingredienti principali della soluzione, è il risultato di tentativi ed errori empirici. La ricerca di una spiegazione compiuta costituisce una grande sfida e un’occasione da non perdere per affrontare nuovamente la questione del rapporto tra linguaggio e pensiero, chiamando a raccolta filosofi e specialisti in scienze cognitive oltre che informatici.

Questa domanda si riferisce alla capacità di un essere umano di fare affermazioni coerenti e di sostenere una conversazione su un’infinita varietà di argomenti. Egli assembla e riconfigura ciò che ha letto e sentito su di loro, integrando se necessario con ciò che può immaginare o dedurre per analogia da altri casi. Non ha esperienza diretta della maggior parte di loro, non conosce le persone coinvolte, eppure “sa” di cosa e di chi si tratta. Come è ? Cosa gli porta questa conoscenza che a ChatGPT mancherebbe? Non pretendo di fornire risposte a questi classici enigmi. Questa seconda osservazione vuole solo ricordarci che quando ci riferiamo a certe capacità umane che abbiamo, per es. l’intuizione, che sono al di là della portata dei sistemi di intelligenza artificiale, e in ultima analisi dei computer — che sono “solo macchine” — convenientemente dimentichiamo che noi non abbiamo idee chiare e distinte di queste capacità, che non sappiamo da quali meccanismi o processi esse derivano.

https://www.gallimard.fr/Catalogue/GALLIMARD/NRF-Essais/Intelligence-artificielle-intelligence-humaine-la-double-enigme

Tuttavia, le mie intuizioni non mi portano a decostruire o dissolvere la differenza tra i sistemi di intelligenza artificiale e gli esseri umani. A questo proposito, sono d’accordo con l’opinione comune. Quello che ho cercato di identificare [5], questo è ciò che separa il primo dal secondo in materia di intelligenza. Non si può semplicemente dire (come fanno non solo la maggior parte dei non specialisti, ma anche alcuni eminenti specialisti) che i sistemi di intelligenza artificiale non hanno intelligenza, a differenza degli umani. Perché dobbiamo essere in grado di distinguere questi sistemi da pietre, automobili, generatori elettrici, ecc. ; probabilmente anche umili calcolatrici, fogli di calcolo come Excel e software di elaborazione testi. Dove tracciare il confine tra software “ordinario” e sistemi di intelligenza artificiale è una questione dibattuta, ma ciò che sembra certo è che ChatGPT possiede in alto grado una proprietà singolare, qualcosa come un Ersatz di intelligenza, dal momento che è in grado, senza essere dotato con intelligenza umana, di eseguire compiti che richiedono l’intelligenza di una persona umana.

A ChatGPT manca tutto ciò che fa di un organismo umano una persona, in particolare un io che mostri una certa coerenza e una certa coesione.

Questa caratterizzazione, lungi dall’essere originale, è quella difesa dalla maggior parte degli autori, fondatori della disciplina, ricercatori e filosofi. Non mi soddisfa del tutto (diremo di una pala meccanica che ha un Ersatz di forza, che realizza solo senza forza ciò che la forza umana permette?). Ma accettiamolo e chiediamoci perché, mentre il pubblico e i commentatori se ne sono accontentati fino a poco tempo fa, solleva nel caso di ChatGPT et al [ 6] una riluttanza. La loro attività linguistica sembra così vicina agli umani che si esita a negare loro una quasi-umanità: sembra che qualcuno e non qualcosa ci parli. Un ricercatore ha persino pensato di avvertire una coscienza mentre parlava con LAMDA, un MML avanzato realizzato da Google (avendo dichiarato pubblicamente che gli era costato il lavoro) [7] , e non è certo l’unico. Un modo socialmente più accettabile di esprimere lo stesso disagio, o la stessa eccitazione – dipende – è vedere in ChatGPT un abbecedario di intelligenza generale, con cui qui si intende [8] un’intelligenza identica in tutto o quasi a quella umana intelligenza.

Ciò che differenzia ChatGPT dagli altri sistemi di IA, quindi, è che si tratta di un simulacro di una persona.

Solo un simulacro, chiederanno alcuni [9] ? Sì, perché manca tutto ciò che fa di un organismo umano una persona, in particolare un io a cui testimonierebbe una certa coerenza e una certa coesione, sia sincronica che diacronica: ChatGPT può nello stesso momento, e da un momento all’altro, avere due opinioni contraddittorie, e le sue convinzioni e preferenze – almeno ciò che le rappresenta – non possiedono unità. Privo di un io , è incapace di un impegno autentico nel presente e di una proiezione nel futuro. Privo, inoltre, di un corpo proprio [10], il coinvolgimento e la proiezione che può simulare sono solo gesti vuoti: ChatGPT non ha preoccupazioni, nessuna posta in gioco. Risolve i problemi che gli vengono posti, nel senso letterale della parola “problema”, senza che nessuno di essi sia per lui un problema, che in assenza di un “lui” non avrebbe senso. L’essere umano, al contrario, si trova di fronte a situazioni concrete, personali, e la sua intelligenza consiste nell’adottare l’atteggiamento che ritiene più opportuno, che spesso lo porta a cercare la soluzione di un problema che avrà saputo formulare, ma che è solo una modalità di questa intelligenza.

Tutto questo è detto troppo frettolosamente, ma qui basterà e mi permetterà di offrire risposte sommarie a due questioni in sospeso. Il primo è se ChatGPT e l’IA generativa siano rivoluzionari. Non è una rivoluzione scientifica o tecnologica; questa rivoluzione è avvenuta in due fasi, negli anni ’80 durante l’emergere del paradigma connessionista [11] , poi nei primi anni 2010 quando, grazie al progresso tecnico, è stata riconosciuta la sua superiorità e gli è stata data la leadership concessa dalla professione, mettendogli a disposizione mezzi colossali.

L’IA generativa, apparsa nel 2017, è una continuazione di questo movimento. D’altra parte, ha già sconvolto la percezione dell’intelligenza artificiale nel pubblico, negli ambienti politici e professionali e tra gli intellettuali. In pochissimo tempo si è verificata una consapevolezza molto generale delle potenzialità e dei pericoli dell’IA. Il potenziale, innanzitutto. Vincere una partita a scacchi o partire, pilotare un veicolo autonomo, ideare una strategia aziendale, risolvere un problema scientifico come il ripiegamento proteico – che questi traguardi siano già stati raggiunti o sembrino in arrivo – impressiona giustamente alcune categorie di persone, ma sembra essere molto lontano dall’intelligenza che è in ognuno e dà loro la sua umanità. parlare, conversare, è invece la sua impronta, immediatamente percepibile da chiunque. E tutti vedono, con più o meno chiarezza, cosa possono fare le macchine che conversano, parlano, scrivono.

I pericoli che pongono non sono meno visibili: possono dar luogo, in quantità illimitate e a costi molto contenuti, a simulacri di persone, che non solo possono trarre in inganno in mille modi particolari, ma che faranno perdere a molti di noi i loro legami sociali , le loro fondamentali implicazioni antropologiche. Non è un caso che Daniel Dennett, tra tutti i principali filosofi dell’epoca, quello che prese sul serio l’intelligenza artificiale e ne accompagnò lo sviluppo per primo, abbia appena lanciato un solenne appello a criminalizzare la fabbricazione e la propagazione di persone finte [12 ]. Ricordando che i falsari sono sempre stati colpiti dalle pene più severe, talvolta fino alla morte, vede nel traffico di persone false una minaccia ancora più grave di quella del denaro falso. In un momento in cui si moltiplicano le carte etiche dell’IA, che sono soprattutto cataloghi di raccomandazioni virtuose, il divieto di questo traffico dovrebbe essere eretto a primo comandamento.

https://www.asterios.it/catalogo/ia-intelligenza-artificiale

 

[1] “ Molto rumore per non molto ” è il titolo di un articolo del 1988 di Hilary Putnam in un numero tematico della rivista Dædalus dedicato all’IA: “Perché tanto clamore ora? Perché un intero numero di Dædalus? “.

[2] I cui membri più recenti sono notevolmente superiori a ChatGPT, il che non cambia notevolmente la prospettiva.

[3] Emily Bender et al., « On the Dangers of Stochastical Parrots : Can Language Models Be Too Big? », 2021.

[4] Le terme de l’art est « apprentissage » (ou parfois « entraînement », training en anglais). La technique de base des réseaux (elle est complétée par d’autres procédés) consiste à corriger légèrement la valeur de certains paramètres et en recommençant un grand nombre de fois, en sorte de se rapprocher graduellement de la bonne réponse, ce qui s’apparente à un dressage qui est une forme très particulière d’apprentissage.

[5] Daniel Andler, Intelligence artificielle, intelligence humaine: la double énigme, Gallimard, 2023, ci-dessous abrégé en Double énigme.

[6] Mi limito a modelli di linguaggio massivo, escludendo quindi da una specifica di linguaggio naturale i sistemi che producono immagini fisse (come DALL-E e Stable Diffusion) o video (come Synthesia), sistemi che non suscitano lo stesso reazioni. La ragione di ciò potrebbe essere che fanno cose di cui nessun essere umano è capace senza grandi sforzi e attraversando una lunga serie di passaggi, mentre ogni essere umano parla e conversa fluentemente e generalmente senza sforzo.

[7] Il s’agit de Blake Lemoine ; voir Double énigme, p. 163-164.

[8] Voir Double énigme, chap. 9. Selon un article particulièrement remarqué, devant les performances stupéfiantes de GPT-4 il est impossible de ne pas lui attribuer des « lueurs d’intelligence générale » : Sébastien Bubeck et al., « Sparks of Artificial General Intelligence: Early experiments with GPT-4 », 13 avril 2023.

[9] Questo spunto di discussione risveglia sicuramente nel lettore un vecchio ricordo, vale a dire l’esperimento mentale (a volte chiamato, erroneamente, “test di Turing”) proposto da Alan Turing nel suo famoso articolo del 1950. Non c’è niente di casuale, ma il problema non è esattamente la stessa cosa.

[10] Collegare un robot a un sistema di intelligenza artificiale non sarebbe sufficiente per dotarlo di un corpo che svolge per lui il ruolo che il nostro corpo svolge per noi; vedi Double Enigma, p. 184-5. Ma questo è un altro problema che non influisce sullo stato di ChatGPT così com’è. Vedi Double Enigma, cap. 8.

[11] In effetti, il connessionismo ha antecedenti che risalgono all’origine dell’IA, così come l’approccio simbolico. V. Double Enigma, cap. 4, punto 4.4.

[12] Daniel C. Dennett, « The Problem With Counterfeit People », The Atlantic, 16 mai 2023.

_________________

Daniel Andler è FILOSOFO DELLA SCIENZA E MATEMATICO, PROFESSORE EMERITO DELL’UNIVERSITÀ DELLA SORBONA, MEMBRO DELL’ACCADEMIA DI SCIENZE MORALI E POLITICHE

Fonte: AOC