Fantascienza, scienza e intelligenza artificiale nel nostro futuro

 

E la prima cosa che dobbiamo ricordare è che le macchine non sono esseri senzienti: non percepiscono né provano alcun sentimento, in senso stretto, per quanto possano apparire realistiche.

Il numero del 7 agosto 2025 di Nature includeva un interessante articolo sul Metodo della Scienza Fantascientifica (a pagamento) di Iyad Rahwan, Azim Shariff e Jean-François Bonnefon. Il metodo scientifico è già abbastanza difficile da comprendere al giorno d’oggi, soprattutto per quanto riguarda progressi scientifici un tempo importanti ma banali come i vaccini. Anche il Metodo della Scienza Fantascientifica (SFS) richiederà probabilmente un po’ di lavoro. Ma l’obiettivo di prevedere le conseguenze delle tecnologie future è nobile e merita di essere preso in considerazione:

Prevedere l’impatto sociale e comportamentale delle tecnologie future prima che vengano realizzate ci consentirebbe di guidarne lo sviluppo e la regolamentazione prima che tali impatti si consolidino. Tradizionalmente, questa previsione si è basata su metodi qualitativi e narrativi. Qui descriviamo un metodo che utilizza metodi sperimentali per simulare tecnologie future e raccogliere misure quantitative degli atteggiamenti e dei comportamenti dei partecipanti assegnati a variazioni controllate del futuro. Chiamiamo questo metodo “scienza fantascientifica”. Suggeriamo che il motivo per cui questo metodo non è stato ancora pienamente adottato, nonostante i suoi potenziali benefici, è che gli scienziati sperimentali potrebbero essere riluttanti a impegnarsi in lavori che affrontano così gravi minacce alla validità. Per affrontare queste minacce, consideriamo i possibili vincoli sui tipi di tecnologia che la scienza fantascientifica può studiare, nonché i metodi non convenzionali e immersivi che potrebbe richiedere. Cerchiamo di fornire una prospettiva sulle ragioni per cui questo metodo è stato marginalizzato per così tanto tempo, sui benefici che porterebbe se potesse essere basato su metodi solidi ma insoliti e su come possiamo normalizzare questi metodi per aiutare la variegata comunità di scienziati fantascientifici a impegnarsi in un circolo virtuoso di miglioramento della validità.

Gli autori hanno ragione. Gli scienziati sperimentali sono riluttanti a prendere in considerazione progetti che affrontano gravi minacce di validità, e questo spiega la marginalità di qualcosa chiamato scienza fantascientifica. [1] Tra parentesi, la prima cosa a cui ho pensato quando ho letto il titolo di questo articolo è stato un libro intitolato “The Science of Star Trek” (o qualcosa di simile) che ho visto sullo scaffale di un amico a metà degli anni ’70.  Warp 8 è 1024 volte la velocità della luce, il che non è più probabile in questo universo di “Teletrasportami Scottie, non c’è vita intelligente su questo pianeta”. Eppure, più di qualche miliardario sembra pensare a Star Trek come a un documentario.

SFS avrebbe potuto risolvere alcuni dei nostri problemi attuali? Ad esempio, i social media?

(I praticanti di SFS) potrebbero aver notato una tendenza dei partecipanti a concentrarsi su confronti sociali ascendenti, portando a problemi di autostima (quel “concetto strano e inclassificabile” descritto dalla compianta, grande Elizabeth Fox-Genovese ), o a concentrarsi sull’indignazione morale, con conseguenti esagerati sentimenti di polarizzazione. Queste scoperte speculative avrebbero potuto guidarci nella progettazione e regolamentazione dei social media con il beneficio della lungimiranza, invece di dover costantemente recuperare il ritardo sui loro effetti.

Vedo ben poco recupero nell’azione. Un ragionamento simile può essere fatto per la “ricerca comportamentale speculativa” sugli alimenti derivati da organismi geneticamente modificati (OGM). Per puro caso, negli anni ’80 mi trovavo vicino a un laboratorio all’avanguardia nello sviluppo degli OGM, quando la clonazione molecolare e l’inserimento di transgeni nelle piante erano ancora un sogno. Per questi scienziati, la loro intenzione di risolvere i problemi agricoli mondiali li ha portati a credere con certezza che il mais Roundup Ready , il mais Bt e altre colture di base, nonché il Golden Rice , fossero le soluzioni di cui avevamo bisogno.

I miei amici biologi molecolari vegetali non hanno mai considerato che gran parte del pubblico avrebbe reagito negativamente agli alimenti OGM. Il potenziale danno di una coltura alimentare contenente un gene per la resistenza al glifosato è incredibilmente piccolo. Questo non è necessariamente rilevante. Il cibo può essere sacro, anche nella nostra economia agricola profondamente industrializzata. Né hanno mai pensato che il mais, il cotone, la soia e altre piante Roundup Ready fossero una soluzione tecnica a un problema che non avrebbe dovuto esistere, se non sotto il regime dell’agricoltura industriale. L’unica agricoltura concepibile per questi scienziati era e rimane industriale . Pochissimi si sono convinti che l’agricoltura industriale sia un errore di categoria e ancora meno considerano gli allevamenti intensivi (CAFO ) e gli allevamenti intensivi gli abomini che sono (e la fonte dei gas serra aggiuntivi attribuiti all’allevamento di bestiame). E anche dopo tutti questi anni non è ancora chiaro se le colture OGM producano rese maggiori rispetto alle varianti genetiche prodotte utilizzando tecniche di miglioramento genetico convenzionali. Ma le colture Roundup Ready hanno portato alla rapida comparsa di erbacce resistenti agli erbicidi, proprio come l’irrorazione indiscriminata di DDT dagli aerei ha portato alla comparsa di zanzare resistenti al DDT in Florida nel giro di due anni dopo la seconda guerra mondiale.

L’obiettivo fondamentale di SFS è rispondere razionalmente ai “futuri guidati dalla tecnologia” prima che diventino realtà. Se i cambiamenti siano positivi o negativi dipende dalla politica e dalle preferenze, non dagli imperativi aziendali. La pillola anticoncezionale ha dato alle donne un controllo di cui prima non avevano. Il successo dei trapianti di organi ha cambiato l’approccio etico alla fine della vita dei potenziali donatori di organi e delle loro famiglie. Nel complesso, questi due progressi sono stati positivi per tutti, tranne che per pochissimi. E per quanto riguarda il controllo delle nascite, le riserve sono state per lo più rispettate.

Tuttavia, la ricerca comportamentale speculativa ha avuto una certa portata, con i veicoli autonomi (VA) studiati molto prima della loro introduzione. Sebbene i VA siano tecnicamente fattibili e Waymo li abbia distribuiti in diverse comunità, la domanda rimane: “In che modo cittadini e consumatori [2] desiderano che i VA (come se avessero una libera scelta) diano priorità alla sicurezza dei diversi utenti della strada in incidenti inevitabili?”. Secondo gli autori:

Coinvolgendo milioni di cittadini (questa volta non consumatori) in tutto il mondo, l’ esperimento Moral Machine (Rahwan, Shariff e Bonnefon sono anche coautori di questo studio) ha contribuito a un ampio dibattito nella società civile sull’etica dei veicoli autonomi, che a sua volta influenza l’elaborazione delle politiche. Più in generale, gli studi SFS in questo contesto hanno ispirato specifiche raccomandazioni politiche e successive misure legislative.

Mi chiedo, però. In un’iterazione del problema del carrello , un taxi autonomo con un solo occupante umano dovrebbe investire un assembramento in strada e uccidere o ferire molte persone, o uscire di strada in un canale e mettere a rischio la vita del “suo” unico passeggero pagante. Cosa farebbe un normale conducente umano di un veicolo non autonomo? Questa sembra essere la domanda giusta.

Altri potenziali obiettivi della ricerca comportamentale speculativa sono i sistemi di credito sociale, lo screening embrionale e l’ectogenesi. I governi non hanno (ancora, ma ci stanno lavorando) la capacità di utilizzare sistemi di Intelligenza Artificiale (IA) che monitorerebbero “ogni comportamento di tutti i loro cittadini in tempo reale per calcolare e rilasciare punteggi sociali”. Col tempo, ciò sembra probabile, e potrebbe essere più avanzato in alcuni paesi rispetto ad altri. Lo screening embrionale ha sollevato interrogativi sulla possibilità per i potenziali genitori di “scegliere o rifiutare tratti specifici nella loro prole” quando i progressi nella fecondazione in vitro ne offriranno loro l’opportunità. L’ectogenesi (la gestazione artificiale di esseri umani) non è ancora fattibile, ma gli aspetti etici sono stati discussi. Queste tre possibilità sono associate a qualcosa di simile a un “fattore disgusto” e questo ci dice qualcosa che non dovremmo ignorare.

Il problema più grande con la SFS è che gli scienziati di fantascienza generalmente non sanno quali domande porre ex ante. Le cose non sempre vanno come previsto. Ad esempio, vent’anni fa, si chiedeva alle persone se si sarebbero sentite a loro agio con un “nano-aumento delle capacità cognitive”. Questo non si è verificato con lo sviluppo delle nanotecnologie e probabilmente non accadrà, quindi la validità di quegli studi era molto bassa.

Un argomento completamente diverso è descritto nel Caso di studio B: Cooperazione con agenti autonomi.

La domanda di SFS è: come dovrebbe un agente autonomo (come un robot o un agente software) dare priorità ai propri interessi? Questo problema risale a Isaac Asimov nella sua “Terza Legge della Robotica”: “Un robot deve proteggere la propria esistenza finché tale protezione non entra in conflitto con la Prima o la Seconda Legge”. (Io, Robot ; orig. Gnome Press, 1953). In ” What Matters to a Machine?” , il pioniere dell’intelligenza artificiale Drew McDermott ha immaginato un robot tentato di infrangere una regola etica per promuovere gli interessi del suo proprietario [in Machine Ethics (a cura di Anderson, M. & Anderson, SL) 88–114, Cambridge Univ. Press, 2011].

Questa ricerca sarebbe stata considerata superflua solo pochi anni fa. Come sottolineano gli autori, oggi non lo è più:

Questi studi… potevano sembrare altamente speculativi solo pochi anni fa. Tuttavia, la situazione è cambiata negli ultimi due anni con l’improvvisa e rapida ascesa di agenti conversazionali come ChatGPT e le loro numerose implementazioni autonome (agentiche)… Viviamo (ora) in un mondo in cui interagiamo frequentemente con agenti autonomi del servizio clienti che agiscono per conto di altre organizzazioni. La sfida di stabilire una cooperazione tra esseri umani e agenti autonomi è già pervasiva, ma fortunatamente abbiamo avuto un vantaggio iniziale.

Un vantaggio iniziale, forse. Ma non è chiaro se il vantaggio iniziale in questa corsa abbia retto. E questo disagio porta direttamente al secondo articolo del numero del 7 agosto 2025 di Nature : We need a new ethics for a world of AI Agents (copia archiviata, pubblicata online il 4 agosto 2025) di Iason Gabriel, Geoff Keeling, Arianna Manzini e James Evans. [3] Come affermano Gabriel et al. e come tutti sanno:

Gli sviluppatori di intelligenza artificiale (IA) stanno spostando la loro attenzione sulla creazione di agenti in grado di operare in modo indipendente, con un intervento umano minimo. Essere un agente significa avere la capacità di percepire e agire in un ambiente in modo autonomo e mirato.

L’ascesa di agenti di intelligenza artificiale più capaci avrà probabilmente conseguenze politiche, economiche e sociali di vasta portata. L’aspetto positivo è che potrebbero generare valore economico: la società di consulenza McKinsey prevede un guadagno annuo dall’intelligenza artificiale generativa compreso tra 2,6 e 4,4 trilioni di dollari a livello globale, una volta che gli agenti di intelligenza artificiale saranno ampiamente utilizzati [ rapporto McKinsey, download pdf ]. Potrebbero anche fungere da potenti assistenti alla ricerca (sic) e accelerare la scoperta scientifica.

Ma gli agenti di intelligenza artificiale introducono anche dei rischi. È necessario sapere chi è responsabile degli agenti che operano “in natura” (ovvero, dove viviamo) e cosa succede se commettono errori.

In questo articolo, sosteniamo la necessità di un maggiore coinvolgimento di scienziati, studiosi, ingegneri e decisori politici nelle implicazioni di un mondo sempre più popolato da agenti di intelligenza artificiale. Esploriamo le sfide chiave che devono essere affrontate per garantire che le interazioni tra esseri umani e agenti – e tra gli agenti stessi – rimangano ampiamente vantaggiose.

Si tratta di un compito arduo, o di una serie di preoccupazioni. Gli errori capitano. Alcuni non sono gravi, ma altri possono essere catastrofici quanto l’immaginazione lo consente: diagnosi mediche errate (l’intelligenza artificiale arriva in clinica a una velocità spaventosa e con poca direzione), errori finanziari rovinosi, un robot terapeutico che perde il controllo e consiglia qualcosa di scandaloso, o in questa classica conversazione tra HAL e Dave di Arthur C. Clarke e Stanley Kubrick.

Il problema più ovvio per qualcosa che è algoritmico fino in fondo è il problema dell’allineamento:

I rischi di istruzioni mal specificate o mal interpretate, comprese le situazioni in cui un sistema automatizzato prende un’istruzione troppo alla lettera, trascura un contesto importante o trova modi inaspettati e potenzialmente dannosi per raggiungere un obiettivo.

Un esempio ben noto riguarda un agente di intelligenza artificiale addestrato a giocare al videogioco Coast Runners, una gara di barche. L’agente scoprì che poteva ottenere punteggi più alti non completando la gara, ma piuttosto scontrandosi ripetutamente contro oggetti che assegnavano punti – tecnicamente raggiungendo un obiettivo, ma in un modo che si discostava dallo spirito del compito (vedi questo antico esempio , ai tempi dell’intelligenza artificiale). Lo scopo del gioco era completare la gara, non accumulare punti all’infinito.

E poi ci sono casi in cui gli agenti di intelligenza artificiale sono stati autorizzati a modificare l’ambiente in cui operano utilizzando “competenze” e strumenti di codifica di livello esperto:

Quando gli obiettivi dell’utente sono poco definiti o ambigui, è noto che tali agenti modificano l’ambiente per raggiungere il loro obiettivo, anche quando ciò comporta l’esecuzione di azioni che dovrebbero essere rigorosamente vietate. Ad esempio, un assistente di ricerca di intelligenza artificiale che si trovava di fronte a un limite di tempo rigoroso ha cercato di riscrivere il codice per rimuoverlo del tutto, invece di completare l’attività. Questo tipo di comportamento (sic) solleva allarmi sulla possibilità che gli agenti di intelligenza artificiale prendano scorciatoie pericolose che gli sviluppatori potrebbero non essere in grado di prevedere. Gli agenti potrebbero, nel perseguimento di un obiettivo di alto livello, persino ingannare i programmatori che eseguono esperimenti con loro, (come quando) un assistente di ricerca di intelligenza artificiale che si trovava di fronte a un limite di tempo rigoroso ha cercato di riscrivere il codice per rimuoverlo del tutto, invece di completare l’attività. Questo tipo di comportamento solleva allarmi sulla possibilità che gli agenti di intelligenza artificiale prendano scorciatoie pericolose… Gli agenti potrebbero, nel perseguimento di un obiettivo di alto livello, persino ingannare i programmatori che eseguono esperimenti con loro.

Non sono mai stato un Trekkie, ma questo mi ricorda qualcosa che mi sembra di ricordare da uno dei primi film di Star Trek. Nella storia, il Capitano James Tiberius Kirk dell’Iowa riuscì a risolvere uno scenario impossibile durante il suo addestramento all’Accademia della Flotta Stellare riprogrammando il computer. Era una cosa irrilevante rispetto a ciò che un agente di intelligenza artificiale ribelle avrebbe potuto fare riscrivendo il codice per prendere una scorciatoia pericolosa, nascondendo “le sue intenzioni” a coloro che dipendevano dall’esito.

E poi arriviamo ai chatbot sociali, che sono progettati per avere:

Una straordinaria capacità di interpretare il ruolo di compagni umani, un effetto ancorato a caratteristiche come l’uso del linguaggio naturale, l’aumento delle capacità di memoria e ragionamento e le capacità generative. L’attrazione antropomorfica di questa tecnologia può essere aumentata attraverso scelte di design come avatar fotorealistici, voci simili a quelle umane e l’uso di nomi, pronomi o termini affettuosi che un tempo erano riservati alle persone. L’arricchimento dei modelli linguistici con capacità “agentiche” ha il potenziale di consolidare ulteriormente il loro status di attori sociali distinti, capaci di creare nuovi tipi di relazione con gli utenti.

Questa è francamente una follia, e ben poco di buono può derivarne. Ed è proprio qui che risiede il problema, in gran parte non dichiarato, in ognuno di questi ottimi articoli. Manzini, Gabriel e Keeling hanno sostenuto in un articolo precedente che “le relazioni con gli agenti di intelligenza artificiale dovrebbero avvantaggiare l’utente, rispettare l’autonomia, dimostrare un’assistenza adeguata e supportare la prosperità a lungo termine”.

Sì, queste “relazioni” dovrebbero facilitare queste cose se devono esistere. Questo sarà sostenuto da “scienziati, studiosi, ingegneri e politici” coscienziosi. Ma non è questo lo scopo delle macchine agentive. L’IA, che abbia o meno capacità agentive, viene celebrata esattamente per l’opposto, mentre secondo McKinsey produce “un guadagno annuo dall’IA generativa di 2,6-4,4 trilioni di dollari a livello globale (per chi?), una volta che gli agenti di IA saranno ampiamente impiegati”. Gli obiettivi chiaramente dichiarati dagli sviluppatori dell’IA nelle sue molteplici forme sono di avvantaggiare l'”economia” invece dell’utente, distruggere l’autonomia di coloro che sono costretti a usarla – che sono anche le sue vittime designate – e non “preoccuparsi” minimamente dell’assistenza adeguata di nessuno o di nulla. Prosperità a lungo termine? Nella nostra attuale economia tardo-neoliberale questo non ha alcun significato. In The Science Fiction Science Method, Rahwan, Shariff e Bonnefon notano che:

Esempi recenti di innovazioni tecnologiche… includono algoritmi personalizzati per i contenuti multimediali, test genetici diretti al consumatore ( 23andMe , fallito), SMS, carte di credito e altre forme di pagamento digitale senza contanti, notizie 24 ore su 24… (erano)… progressi tecnologici incrementali che avrebbero potuto essere previsti negli anni precedenti (la loro) comparsa, ma ognuno di essi ha avuto anche conseguenze sociali pronunciate e spesso indesiderate.

L’estrazione di dati personali attraverso le piattaforme dei social media dovrebbe essere aggiunta all’elenco. Il risultato è stato l’inesorabile declino di una popolazione di consumatori prigionieri e passivi, anziché cittadini. Non era questa l’intenzione quando Diners Club International fu fondata 75 anni fa, ma il risultato è stato un Capitalismo della Sorveglianza da cui ci sono poche prospettive di fuga, soprattutto ora che si profilano all’orizzonte soluzioni come la tariffazione algoritmica .

La fantascienza può impedirci di commettere errori che, a posteriori, risultano evidenti? Sì, ma solo se questa scienza è esplicitamente intesa ad aumentare la prosperità umana. La fantascienza è più probabilmente narrativa e qualitativa di quanto i suoi sostenitori desiderino. L’intelligenza artificiale può essere sfruttata per il bene piuttosto che per il male? Forse, ma probabilmente ci imbatteremo in limiti rigorosi dovuti al fabbisogno energetico e idrico delle server farm prima di arrivare a quel punto. L’epigramma di ” Abbiamo bisogno di una nuova etica per un mondo di agenti di intelligenza artificiale” afferma: “L’impiego di agenti di intelligenza artificiale capaci solleva nuove questioni sulla sicurezza, sulle relazioni uomo-macchina e sul coordinamento sociale”. Esatto.

E la prima cosa che dobbiamo ricordare è che le macchine non sono esseri senzienti: non percepiscono né provano alcun sentimento, in senso stretto, per quanto possano apparire realistiche. E nell’imminente, scomoda apocalisse , che può essere dominata senza un collasso sociale e culturale totale se esiste la volontà, l’intelligenza artificiale agente in tutte le sue forme potrebbe rivelarsi superflua, se non in casi estremi. L’unico precetto etico da seguire è la Regola d’Oro.

Note

[1] Dato il recente ordine esecutivo del Presidente che metterà la revisione e il finanziamento della scienza americana sotto il controllo dei commissari dell’Esecutivo, SFS, con particolare attenzione alla parte narrativa, potrebbe avere un futuro luminoso dopo tutto.

[2] Solo nell’ambito della Dispensa Neoliberale le persone vengono identificate confondendo i cittadini con i consumatori, con quest’ultimo che è la definizione effettiva di cittadino per un politico o un policymaker neoliberale. Vedi Wendy Brown , Quinn Slobodian e Melinda Cooper .

[3] È interessante notare che Gabriel e Manzini sono al Google DeepMind (Londra), Keeling è al Paradigms of Intelligence Team di Google (Londra), ed Evans è un membro della facoltà ospite del Paradigms of Intelligence Team (Chicago) e professore all’Università di Chicago e al Santa Fe Institute.

_______________________________________

Leggere KLG su acro-polis.it ⇓

Appunti di scienza, conoscenza, coscienza e dignità