Intervista: il puzzle etico dell’IA senziente

 

L’intelligenza artificiale è progredita così rapidamente che anche alcuni degli scienziati responsabili di molti sviluppi chiave sono turbati dal ritmo del cambiamento. All’inizio di quest’anno, più di 300 professionisti che lavorano nell’IA e altri personaggi pubblici preoccupati hanno emesso un brusco avvertimento sul pericolo rappresentato dalla tecnologia, paragonando il rischio a quello di pandemie o guerre nucleari.

In agguato appena sotto la superficie di queste preoccupazioni c’è la questione della coscienza della macchina. Anche se non c’è “nessuno in casa” all’interno delle odierne IA, alcuni ricercatori si chiedono se un giorno potrebbero mostrare un barlume di coscienza o più. Se ciò accadrà, solleverà una serie di preoccupazioni morali ed etiche, afferma Jonathan Birch , professore di filosofia alla London School of Economics and Political Science.

Man mano che la tecnologia dell’intelligenza artificiale fa un balzo in avanti, le questioni etiche suscitate dalle interazioni uomo-IA hanno assunto una nuova urgenza. “Non sappiamo se inserirli nel nostro circolo morale o escluderli”, ha detto Birch. “Non sappiamo quali saranno le conseguenze. E lo prendo seriamente come un vero rischio di cui dovremmo iniziare a parlare. Non proprio perché penso che ChatGPT rientri in quella categoria, ma perché non so cosa accadrà nei prossimi 10 o 20 anni”.

Nel frattempo, dice, potremmo fare bene a studiare altre menti non umane, come quelle degli animali. Birch guida il progetto Foundations of Animal Sentience dell’università, uno sforzo finanziato dall’Unione Europea che “mira a cercare di fare qualche progresso sulle grandi questioni della sensibilità animale”, come ha detto Birch. “Come possiamo sviluppare metodi migliori per studiare scientificamente le esperienze coscienti degli animali? E come possiamo far funzionare la scienza emergente della sensibilità animale, per progettare politiche, leggi e modi migliori di prendersi cura degli animali?

La nostra intervista è stata condotta tramite Zoom e via e-mail ed è stata modificata per lunghezza e chiarezza.

Undark: C’è stato un dibattito in corso sul fatto che l’IA possa essere cosciente o senziente. E sembra esserci una domanda parallela sul fatto che l’IA possa sembrare senziente. Perché questa distinzione è così importante?

Jonathan Birch: Penso che sia un grosso problema, e qualcosa che dovrebbe farci piuttosto paura, in realtà. Anche adesso, i sistemi di intelligenza artificiale sono perfettamente in grado di convincere i propri utenti della loro sensibilità. L’abbiamo visto l’anno scorso con il caso di Blake Lemoine, l’ingegnere di Google che si convinse che il sistema su cui stava lavorando fosse senziente, ed è proprio quando l’output è puramente testuale e quando l’utente è un esperto di intelligenza artificiale altamente qualificato.

Quindi immagina una situazione in cui l’IA è in grado di controllare un volto umano e una voce umana e l’utente è inesperto. Penso che l’intelligenza artificiale sia già nella posizione in cui può convincere un gran numero di persone che è un essere senziente abbastanza facilmente. Ed è un grosso problema, perché penso che inizieremo a vedere persone che fanno campagne per il benessere dell’IA, i diritti dell’IA e cose del genere.

E non sapremo cosa fare al riguardo. Perché quello che vorremmo è un argomento di abbattimento davvero forte che dimostri che i sistemi di intelligenza artificiale di cui stanno parlando non sono coscienti. E non ce l’abbiamo. La nostra comprensione teorica della coscienza non è abbastanza matura da permetterci di dichiararne con sicurezza l’assenza.

 


In tutte le librerie, in IBS ed Amazon e/o direttamente dal sito di Asterios con sconti e omaggi!https://www.asterios.it/catalogo/la-coscienza-annientata


UD: Un robot o un sistema di intelligenza artificiale potrebbe essere programmato per dire qualcosa del tipo: “Smettila, mi stai facendo del male”. Ma una semplice dichiarazione del genere non è sufficiente per servire da cartina di tornasole per la sensibilità, giusto?

JB: Puoi avere sistemi molto semplici [come quelli] sviluppati all’Imperial College di Londra per aiutare i medici con la loro formazione che imitano le espressioni del dolore umano . E non c’è assolutamente alcun motivo per pensare che questi sistemi siano senzienti. Non provano davvero dolore; tutto ciò che stanno facendo è mappare gli input agli output in un modo molto semplice. Ma le espressioni di dolore che producono sono piuttosto realistiche.

Penso che ci troviamo in una posizione in qualche modo simile con i chatbot come ChatGPT: vengono addestrati su oltre un trilione di parole di dati di addestramento per imitare i modelli di risposta di un essere umano e per rispondere nei modi in cui un essere umano risponderebbe.

Quindi, ovviamente, se gli dai un suggerimento a cui un essere umano risponderebbe facendo un’espressione di dolore, sarà in grado di imitare abilmente quella risposta.

Ma penso che quando sappiamo che questa è la situazione — quando sappiamo che abbiamo a che fare con un mimetismo abile — non c’è una ragione valida per pensare che dietro ci sia una vera esperienza di dolore.

UD: Questa entità su cui si stanno allenando gli studenti di medicina, immagino sia qualcosa come un robot?

JB: Esatto, sì. Quindi hanno una cosa simile a un manichino, con un volto umano, e il dottore è in grado di premere il braccio e ottenere un’espressione che imita le espressioni che gli umani darebbero per vari gradi di pressione. È per aiutare i medici a imparare come eseguire le tecniche sui pazienti in modo appropriato senza causare troppo dolore.

E siamo molto facilmente catturati non appena qualcosa ha un volto umano e fa espressioni come farebbe un essere umano, anche se dietro non c’è alcuna vera intelligenza.

Quindi, se immagini di essere abbinato al tipo di intelligenza artificiale che vediamo in ChatGPT, hai una sorta di mimetismo che è davvero molto convincente e che convincerà molte persone.

UD: La sensibilità sembra qualcosa che conosciamo dall’interno, per così dire. Comprendiamo la nostra stessa sensibilità, ma come testeresti la sensibilità negli altri, che si tratti di un’intelligenza artificiale o di qualsiasi altra entità al di là di te stesso?

JB: Penso che siamo in una posizione molto forte con altri umani, che possono parlare con noi, perché lì abbiamo un insieme di prove incredibilmente ricco. E la migliore spiegazione è che altri esseri umani hanno esperienze coscienti, proprio come noi. E così possiamo usare questo tipo di inferenza che i filosofi a volte chiamano “inferenza alla migliore spiegazione”.

Penso che possiamo affrontare l’argomento degli altri animali esattamente nello stesso modo: che gli altri animali non ci parlano, ma mostrano comportamenti che sono spiegati in modo molto naturale attribuendo stati come il dolore. Ad esempio, se vedi un cane che si lecca le ferite dopo un infortunio, allattando quella zona, imparando a evitare i punti in cui è a rischio di infortunio, spiegheresti naturalmente questo modello di comportamento postulando uno stato di dolore.

E penso che quando abbiamo a che fare con altri animali che hanno un sistema nervoso abbastanza simile al nostro, e che si sono evoluti proprio come noi, penso che questo tipo di inferenza sia del tutto ragionevole.


In tutte le librerie, in IBS ed Amazon e/o direttamente dal sito di Asterios con sconti e omaggi!

https://www.asterios.it/catalogo/ia-intelligenza-artificiale


UD: Che dire di un sistema di intelligenza artificiale?

JB: Nel caso dell’IA, abbiamo un grosso problema. Prima di tutto abbiamo il problema che il substrato è diverso. Non sappiamo davvero se l’esperienza cosciente sia sensibile al substrato: deve avere un substrato biologico, vale a dire un sistema nervoso, un cervello? O è qualcosa che può essere realizzato in un materiale completamente diverso, un substrato a base di silicio?

Ma c’è anche il problema che ho chiamato il “problema del gioco”: quando il sistema ha accesso a trilioni di parole di dati di addestramento ed è stato addestrato con l’obiettivo di imitare il comportamento umano, il tipo di modelli di comportamento che produce potrebbe essere spiegato dal fatto di avere genuinamente l’esperienza cosciente. Oppure, in alternativa, potrebbero essere semplicemente spiegati con l’obiettivo di comportarsi come un essere umano risponderebbe in quella situazione.

Quindi penso davvero che siamo nei guai nel caso dell’IA, perché è improbabile che ci troviamo in una posizione in cui è chiaramente la migliore spiegazione per ciò che stiamo vedendo: che l’IA è cosciente. Ci saranno sempre spiegazioni alternative plausibili. E questo è un legame molto difficile da cui uscire.

UD: Quale pensi possa essere la soluzione migliore per distinguere tra qualcosa che è effettivamente cosciente e un’entità che ha solo l’ apparenza di essere senziente?

JB: Penso che il primo passo sia riconoscerlo come un problema molto profondo e difficile. La seconda fase è cercare di imparare il più possibile dal caso di altri animali. Penso che quando studiamo animali che ci sono abbastanza vicini, in termini evolutivi, come cani e altri mammiferi, non siamo sempre sicuri se l’esperienza cosciente possa dipendere da meccanismi cerebrali molto specifici che sono distintivi del cervello dei mammiferi.

Per superarlo, dobbiamo esaminare la più ampia gamma di animali possibile. E dobbiamo pensare in particolare agli invertebrati, come i polpi e gli insetti, dove questo è potenzialmente un altro esempio di esperienza cosciente evolutosi in modo indipendente. Proprio come l’occhio di un polpo si è evoluto in modo completamente separato dai nostri occhi — ha questa affascinante miscela di somiglianze e differenze — penso che anche le sue esperienze coscienti saranno così: evolute in modo indipendente, simili per certi versi, molto, molto diverse in altri modi.

E attraverso lo studio delle esperienze di invertebrati come i polpi, possiamo iniziare a capire quali sono le caratteristiche veramente profonde che un cervello deve avere per supportare le esperienze coscienti, cose che vanno più in profondità del semplice avere queste specifiche strutture cerebrali che sono lì nei mammiferi. Che tipo di calcolo è necessario? Che tipo di lavorazione?

Quindi — e la vedo come una strategia a lungo termine — potremmo essere in grado di tornare al caso dell’IA e dire, beh, ha quei tipi speciali di calcolo che troviamo in animali coscienti come mammiferi e polpi?

UD: Credi che un giorno creeremo un’IA senziente?

JB: Sono a circa 50:50 su questo. C’è la possibilità che la sensibilità dipenda da caratteristiche speciali di un cervello biologico, e non è chiaro come testare se lo fa. Quindi penso che ci sarà sempre una sostanziale incertezza nell’IA. Sono più fiducioso su questo: se la coscienza può in linea di principio essere raggiunta nel software del computer, allora i ricercatori di intelligenza artificiale troveranno un modo per farlo.

__________________________

Dan Falk, è un giornalista scientifico con sede a Toronto. I suoi libri includono “The Science of Shakespeare” e “In Search of Time”. Questa sua intervista con Jonathan Birch è stata originariamente pubblicata su Undark.