Il mito dell’apprendimento automatizzato. La vera minaccia dell’intelligenza artificiale all’istruzione
Tra il grande pubblico, i primi ad adottare l’IA generativa con maggiore entusiasmo sono stati gli studenti. Sondaggi condotti un anno fa hanno rivelato che quasi il 90% degli studenti universitari e oltre il 50% degli studenti delle scuole superiori utilizzavano regolarmente i chatbot per i compiti scolastici. Questi numeri sono certamente più alti ora. L’IA potrebbe essere lo strumento educativo adottato più rapidamente dai tempi della matita.
Poiché i bot che generano testo come ChatGPT offrono un modo semplice per copiare su elaborati e altri compiti, l’adozione di questa tecnologia da parte degli studenti ha suscitato disagio, e a volte disperazione, tra gli insegnanti. Insegnanti e studenti si ritrovano ora a giocare a un gioco algoritmico del gatto e del topo , senza vincitori. Ma copiare è il sintomo di un problema più profondo e insidioso. La vera minaccia che l’IA rappresenta per l’istruzione non è incoraggiare il copiare. È scoraggiare l’apprendimento.
Per capirne il motivo, è importante riconoscere che l’IA generativa è una tecnologia di automazione. Si può fare qualsiasi ipotesi sul fatto che i computer possano raggiungere un’intelligenza pari a quella umana o addirittura una “superintelligenza”, ma per il momento l’IA sta facendo qualcosa che ha una lunga tradizione nelle attività umane. Che si tratti di ricerca o sintesi, di scrittura di testi o di creazione di grafici, sta sostituendo il lavoro umano con quello delle macchine.
Grazie ai ricercatori sui fattori umani e alla montagna di prove che hanno raccolto sulle conseguenze dell’automazione per i lavoratori,1 Sappiamo che quando le persone usano una macchina per automatizzare un compito che altrimenti avrebbero svolto da sole, si verificano tre situazioni:
1. La loro abilità nell’attività aumenta.
2. La loro abilità nell’attività si atrofizza.
3. La loro abilità nell’attività non si sviluppa mai.
Lo scenario che si verifica dipende dal livello di padronanza che una persona porta con sé nel lavoro. Se un lavoratore ha già padroneggiato l’attività da automatizzare, la macchina può diventare un supporto per un ulteriore sviluppo delle competenze. Si sostituisce a un compito di routine ma che richiede tempo, consentendo alla persona di affrontare e padroneggiare sfide più ardue. Nelle mani di un matematico esperto, ad esempio, un regolo calcolatore o una calcolatrice diventano un amplificatore di intelligenza.
Se, tuttavia, il mantenimento dell’abilità in questione richiede pratica frequente – come nel caso della maggior parte delle abilità manuali e di molte abilità che richiedono una combinazione di destrezza manuale e mentale – allora l’automazione può minacciare il talento anche di un esperto praticante. Lo vediamo nell’aviazione. Quando i piloti esperti diventano così dipendenti dai sistemi di pilotaggio automatico da praticare raramente il volo manuale, subiscono quello che i ricercatori chiamano “skill fade”. Perdono la consapevolezza della situazione e le loro reazioni rallentano. Si arrugginiscono.
L’automazione è più perniciosa nel terzo scenario: quando una macchina assume il comando di un lavoro prima che la persona che la utilizza abbia maturato esperienza diretta nel farlo. Senza esperienza, senza pratica, il talento nasce morto. Questa fu la storia del fenomeno della “deskilling” (dequalificazione) all’inizio della Rivoluzione Industriale. Gli artigiani qualificati furono sostituiti da operatori di macchine non qualificati. Il lavoro accelerò, ma l’unica competenza sviluppata dagli operatori di macchine fu quella di azionare la macchina, che nella maggior parte dei casi era praticamente nulla. Togliete la macchina e il lavoro si ferma.
Poiché l’IA generativa è una tecnologia di uso generale che può essere utilizzata per automatizzare ogni tipo di attività e lavoro, è probabile che negli anni a venire vedremo numerosi esempi di ciascuno dei tre scenari di competenze. Ma l’uso dell’IA da parte di studenti delle scuole superiori e dell’università per completare compiti scritti, per facilitare o evitare il lavoro di lettura e scrittura, è un caso speciale. Pone il processo di dequalificazione al centro dell’istruzione. Automatizzare l’apprendimento significa sovvertirlo.
A differenza della falegnameria o del calcolo infinitesimale, l’apprendimento non è un’abilità che può essere “padroneggiata”. È vero che più si fa ricerca, più si diventa bravi a fare ricerca, e più articoli si scrivono, più si diventa bravi a scrivere articoli, ma il valore pedagogico di un compito scritto non risiede nel prodotto tangibile del lavoro – l’elaborato che viene consegnato al termine del compito. Risiede nel lavoro stesso: la lettura critica delle fonti, la sintesi di prove e idee, la formulazione di una tesi e di un’argomentazione, e l’espressione del pensiero in un testo coerente. L’elaborato è un indicatore che l’insegnante usa per valutare il successo del lavoro svolto dallo studente – il lavoro di apprendimento. Una volta valutato e restituito allo studente, l’elaborato può essere buttato via.
https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale
L’intelligenza artificiale generativa consente agli studenti di produrre il prodotto senza dover fare alcuno sforzo. Invece di leggere e dare un senso a testi di partenza complessi, possono chiedere a un chatbot di creare riassunti semplificati. Invece di sintetizzare diverse idee e prospettive attraverso il pensiero concertato, possono chiedere al chatbot una sintesi generica. E invece di esprimere (e perfezionare) i propri pensieri attraverso la composizione di frasi e paragrafi, possono chiedere al bot di sputare fuori una prima bozza o persino una definitiva. L’elaborato consegnato da uno studente non fornisce più la prova del lavoro di apprendimento che la sua creazione ha comportato. È un sostituto del lavoro.2
In un recente articolo del Chronicle of Higher Education, Clay Shirky, analista di lunga data dei media digitali e vicerettore per l’intelligenza artificiale e la tecnologia nell’istruzione presso la New York University, ha attinto al suo ampio lavoro con professori e studenti per spiegare come questa nuova dinamica stia erodendo uno dei fondamenti dell’istruzione:
Ogni anno, circa 15 milioni di studenti universitari negli Stati Uniti producono elaborati ed esami che contano miliardi di parole. Mentre il risultato di un dato corso sono i compiti degli studenti – elaborati, esami, progetti di ricerca e così via – il prodotto di quel corso è l’esperienza degli studenti. “L’apprendimento deriva da ciò che lo studente fa e pensa”, come osservò una volta il grande teorico dell’educazione Herbert Simon, “e solo come risultato di ciò che lo studente fa e pensa”. . . .
L’utilità degli elaborati scritti si basa su due presupposti: il primo è che per scrivere di qualcosa, lo studente deve comprendere l’argomento e organizzare i propri pensieri. Il secondo è che valutare gli elaborati scritti di uno studente equivale a valutare l’impegno e la riflessione profusi. Alla fine del 2022, la logica di questa affermazione – mai ferrea – ha iniziato a sgretolarsi completamente. Gli elaborati prodotti da uno studente e l’esperienza che ne deriva possono ora essere disgiunti con la stessa facilità con cui si digita un prompt, il che significa che valutare gli elaborati scritti di uno studente potrebbe ora non essere più correlato alla valutazione di ciò che lo studente ha imparato a comprendere o esprimere.
Il lavoro di apprendimento è arduo per definizione – senza sfide, la mente non impara nulla – e cercare di alleviarlo o evitarlo non è una novità. Gli studenti con poco tempo a disposizione hanno sempre cercato scorciatoie (CliffsNotes ha creato un’azienda al loro servizio), e gli studenti senza scrupoli hanno sempre trovato il modo di barare. Ma l’intelligenza artificiale generativa è qualcosa di diverso, non solo per dimensioni, ma anche per natura. La velocità, la facilità d’uso, la flessibilità e, soprattutto, la sua ampia adozione nella società stanno facendo sembrare normale e persino necessario automatizzare la lettura e la scrittura, bypassando il lavoro di apprendimento. Avere difficoltà con le parole e le idee che rappresentano sta iniziando a sembrare antiquato e persino assurdo, come faticare a orientarsi in una città con una mappa cartacea. Perché preoccuparsene, quando una macchina può fare il lavoro pesante per te?
https://www.asterios.it/catalogo/la-scuola-digitale
Ciò che l’intelligenza artificiale troppo spesso produce è l’illusione di apprendimento. Gli studenti potrebbero anche essere in grado di scrivere elaborati migliori con un chatbot rispetto a quanto potrebbero fare da soli, ma finiscono per imparare meno. Il problema non sembra limitarsi ai compiti di scrittura. Un ampio studio del 2024 dell’Università della Pennsylvania sugli effetti dell’intelligenza artificiale sugli studenti di matematica delle scuole superiori ha rilevato, come scrivono i suoi autori in un articolo di prossima pubblicazione su PNAS , che “l’accesso a GPT-4 migliora significativamente le prestazioni [misurate dai voti]”, ma quando l’accesso alla tecnologia viene negato, “gli studenti ottengono risultati peggiori di coloro che non vi hanno mai avuto accesso”. Grazie all’intelligenza artificiale generativa, uno studente con un punteggio B può produrre un lavoro A trasformandosi in uno studente C.3
Una conseguenza ironica della perdita di apprendimento è che impedisce agli studenti di utilizzare l’IA in modo appropriato. Scrivere un buon prompt richiede la comprensione dell’argomento da esplorare. Il suggeritore deve conoscere il contesto del prompt. Lo sviluppo di questo tipo di comprensione è esattamente ciò che l’affidamento all’IA impedisce. “L’impiego più utile dell’IA generativa, attuale e del prossimo futuro, nella ricerca e nell’espressione richiede assolutamente che si conosca già molto”, scrive il professore di storia di Swarthmore Timothy Burke, ma il modo in cui la tecnologia viene effettivamente utilizzata “sta brutalmente cortocircuitando i processi attraverso i quali le persone acquisiscono conoscenze e competenze espressive sufficienti per poter utilizzare correttamente il potenziale dell’IA generativa”. L’effetto di dequalificazione dello strumento si estende all’uso dello strumento stesso.
Shirky percepisce una crescente “tristezza” tra gli studenti, man mano che diventano più dipendenti dall’intelligenza artificiale. Si sentono obbligati a usare la tecnologia, pur sapendo che sta minando il loro apprendimento e precludendo le possibilità intellettuali che l’apprendimento apre, la soddisfazione che deriva dal fare o comprendere qualcosa di difficile. Cita alcuni studenti universitari:
“Sono diventato più pigro. L’intelligenza artificiale rende la lettura più facile, ma fa sì che il mio cervello perda lentamente la capacità di pensare in modo critico o di capire ogni parola.”
“Non riesco letteralmente a stare nemmeno 10 secondi senza usare la chat quando faccio i compiti. Odio quello che sono diventato perché so che non sto imparando NULLA, ma ora sono troppo indietro per farcela senza usarla… la mia motivazione è andata.”
“Lo fanno tutti.”
Ci siamo concentrati su come gli studenti usano l’IA per imbrogliare. Ciò di cui dovremmo preoccuparci di più è il modo in cui l’IA imbroglia gli studenti.
Note
1 Esploro queste prove nel mio libro sull’automazione, The Glass Cage.
2 Si potrebbe sostenere che, adottando l’intelligenza artificiale generativa, gli studenti stiano portando alla sua conclusione logica una tendenza di lunga data nell’istruzione, avviata da genitori, politici e dirigenti scolastici: dare priorità alle misure quantitative delle prestazioni rispetto all’apprendimento effettivo.
3 Questo ciclo di dipendenza è positivo per le aziende di intelligenza artificiale. A marzo, con l’evidenza crescente degli effetti dirompenti dell’intelligenza artificiale sull’istruzione, OpenAI ha annunciato che avrebbe offerto agli studenti l’accesso gratuito alla versione premium del suo servizio, ChatGPT Plus, fino alla fine dell’anno scolastico. Per le aziende di intelligenza artificiale, gli studenti non sono studenti. Sono clienti.
Autore: Nicholas George Carr (Cincinnati, 7 gennaio 1959) è uno scrittore statunitense, autore di libri e articoli di tecnologia, business e cultura. Il suo libro, “The Shallows: What the Internet Is Doing to Our Brains” è stato finalista nel 2011 per il Premio Pulitzer nella categoria General Nonfiction.
https://www.asterios.it/catalogo/epimente
https://www.asterios.it/catalogo/cinema-e-matematica