Quando Copernico presentò il suo modello eliocentrico, in cui la Terra non era il centro dell’universo, ci fu una forte resistenza. Non solo la Chiesa si rifiutò di accettarlo perché poneva problemi teologici, ma anche altri astronomi lo confutarono, sostenendo che il geocentrismo spiegasse meglio alcuni fenomeni.
Ciò nonostante, il modello eliocentrico fosse stato ampiamente discusso da altre culture, come gli antichi greci e il mondo islamico, e vi fossero dati empirici che sfidavano il geocentrismo. Ciò che ci voleva perché l’Occidente avviasse questo cambiamento di paradigma non era l’esistenza di dati, ma qualcuno disposto a pensare in modo diverso, a porre una domanda che andasse contro il consenso consolidato.
In teoria, un LLM avrebbe potuto giungere a questa conclusione se avesse ricevuto tutte le informazioni necessarie. Questi modelli di intelligenza artificiale eccellono nell’analisi dei dati e nel riconoscimento di pattern. Sulla base di ciò, possono generare ipotesi predittive e persino eseguire simulazioni. Tuttavia, avrebbero potuto farlo solo quando gli fosse stata posta la domanda appropriata, quando richiesto.
Poiché gli LLM vengono addestrati su enormi quantità di testo e ottimizzati per prevedere quale testo probabilmente seguirà, ereditano la distribuzione delle convinzioni nei dati di addestramento. Se la maggior parte delle fonti afferma che il geocentrismo è corretto, un modello addestrato solo su quei testi favorirebbe fortemente anch’esso il geocentrismo. Il modo in cui i modelli vengono addestrati attivamente premia chi concorda con la maggioranza dei dati, non chi inventa teorie radicalmente nuove per spiegarla. La maggior parte degli LLM viene ulteriormente ottimizzata per essere utile e sicura, a seconda di ciò che questo significa per lo sviluppatore, spesso sollecitata a rispettare il consenso degli esperti.
Allo stato attuale – e se questa situazione cambierà davvero è altamente controverso – un LLM di per sé manca della curiosità intrinseca per sfidare un paradigma consolidato. Può elaborare con grande efficacia ipotesi precedenti e trovare soluzioni alle sfide attuali che tali ipotesi presentano. Ma andare effettivamente contro il consenso consolidato, come il modello geocentrista, richiede un tipo di pensiero creativo che potremmo definire pensiero deviante.
Sembra che, al momento, questo tipo di pensiero sia in declino. Adam Mastroianni ha scritto un ottimo articolo che illustra, con numerosi esempi, come questa sembri essere la traiettoria attuale. Analizza diverse tendenze, dalle persone disposte ad agire in modo criminale all’omogeneizzazione delle identità di marca e dell’arte.
Il pensiero deviante è, in questo contesto, la capacità di pensare contro le norme stabilite. “Si inizia seguendo le regole, poi non si smette più, e poi ci si dimentica che è possibile infrangere le regole fin dall’inizio. La maggior parte delle violazioni delle regole è sbagliata, ma alcune sono necessarie. Sembra che abbiamo perso entrambe le tipologie contemporaneamente”, scrive.
Attribuisce inoltre il declino del progresso scientifico al declino del pensiero deviante: “La scienza richiede un pensiero deviante. Quindi non c’è da stupirsi che, mentre osserviamo un declino della devianza ovunque, assistiamo anche a un declino del tasso di progresso scientifico”.
Copernico era un pensatore deviante, almeno rispetto al consenso teologico e scientifico consolidato in Occidente all’epoca. Per poter esaminare i dati e dire: “Aspetta un attimo, forse la Terra non è il centro dell’universo”, e avere il coraggio di renderlo pubblico, con le conseguenze che ciò avrebbe comportato – persino la morte – era necessario qualcuno disposto a pensare in modo deviante.
Il declino di questo tipo di pensiero potrebbe essere correlato a un declino del pensiero critico. Per pensare in modo deviante ed efficace, bisogna prima pensare in modo critico. L’educatore americano ED Hirsch Jr. ha sottolineato in un saggio pubblicato nella primavera del 2001 su American Educator, intitolato “You Can Always Look It Up—Or Can You?”, che, a causa dei motori di ricerca e di Internet, stavamo perdendo la capacità di pensare in modo critico. Questo accadeva anche prima che i modelli di intelligenza artificiale fossero disponibili.
Ciò che Hirsch stava essenzialmente dicendo è che ci vuole conoscenza per acquisire conoscenza e per darle un senso. Criticava i modelli educativi basati esclusivamente sull’acquisizione di competenze, perché i dati fattuali erano sempre reperibili. “Sì, Internet ha messo una ricchezza di informazioni a portata di mano. Ma per poter utilizzare tali informazioni – per assorbirle, per accrescere la nostra conoscenza – dobbiamo già possedere un bagaglio di conoscenze. Questo è il paradosso svelato dalla ricerca cognitiva”.
Sostiene che ciò che consente l’apprendimento permanente, la comprensione della lettura, il pensiero critico e la flessibilità intellettuale è una conoscenza di base ampia e cumulativa, che inizia nella prima infanzia. Senza tale base, né le “competenze” né l’accesso a Internet possono sostituire l’apprendimento e la cognizione.
Un recente studio del MIT suggerisce ciò che la maggior parte delle persone può percepire intuitivamente: l’uso di modelli LLM compromette la nostra capacità di pensiero. I ricercatori hanno utilizzato un EEG per registrare l’attività cerebrale degli scrittori in 32 regioni e hanno scoperto che coloro che utilizzavano ChatGPT avevano il coinvolgimento cerebrale più basso rispetto a coloro che utilizzavano ricerche tradizionali o non utilizzavano affatto.
ED Hirsch aveva avvertito che insegnare solo le competenze non era sufficiente per sviluppare il pensiero critico, ma ora i chatbot LLM stanno compromettendo anche questi processi. Secondo lo studio del MIT, coloro che utilizzavano ChatGPT “ottenevano costantemente risultati inferiori a livello neurale, linguistico e comportamentale”. Nel corso di diversi mesi, gli utenti di ChatGPT sono diventati più pigri con ogni saggio successivo, ricorrendo spesso al copia e incolla alla fine dello studio.
Non sorprende, quindi, che il pensiero deviante sia in declino. Non solo stiamo perdendo la capacità di accumulare conoscenze fattuali, che implica anche la capacità di dare un senso a nuove informazioni, ma stiamo anche perdendo la capacità di utilizzare le capacità di pensiero che avrebbero dovuto compensare la perdita di conoscenze fattuali.
Forse non stiamo perdendo questa capacità, ma piuttosto la stiamo scaricando sulle macchine. Prima abbiamo delegato la capacità di immagazzinare conoscenza e ora stiamo delegando i processi di pensiero. Ma delegando questi, stiamo perdendo la capacità di pensare in modo critico, per non parlare di quello deviante, il che significa che diventiamo più conformisti con la narrazione generale, più compiacenti con il potere.
Si potrebbe pensare che questo non fosse l’obiettivo iniziale dello sviluppo di questa tecnologia. Ora che l’entusiasmo per il modo in cui i modelli di intelligenza artificiale LLM cambieranno il mondo e rivoluzioneranno ogni settore sembra essersi un po’ placato, e ci stiamo un po’ calmando, ci rendiamo conto che l’impatto sull’economia produttiva è relativamente limitato.
Finora, i casi d’uso reali dei modelli di IA generativa sono piuttosto di nicchia rispetto alle aspettative. Certo, ci sono alcuni settori in cui rappresentano uno strumento rivoluzionario, ma un altro studio del MIT ha dimostrato che il 95% delle aziende stava prendendo in considerazione l’idea di abbandonare i progetti pilota di IA generativa perché non ne aveva riscontrato alcun ritorno. Ci sono tuttavia alcuni ambiti in cui eccellono: sorveglianza, targeting, riproduzione dei contenuti e manipolazione algoritmica. Sono uno strumento perfetto per aumentare il controllo e la conformità.
Tuttavia, non è questo il punto principale che sto cercando di sottolineare qui. Piuttosto, l’intelligenza artificiale generativa non ci darà nulla di veramente nuovo, solo più di ciò che è già stato fatto. Più grande, più veloce, più produttivo. Non solo perché la tecnologia in sé non è adatta, ma perché ci sta rendendo più omogenei – “più in forma, più felici, più produttivi”, come cantavano i Radiohead – meno capaci di pensare in modo deviante. Non so se questo sia un bene o un male, ma penso decisamente che sia una cosa più noiosa.
Leggere articoli di Curro Jimenez su acro-polis.it ⇓
Entropia sistemica e potere: spiegare il crollo dell’ordine mondiale