Il mio nuovo “compagno di classe”, un robot

La ricercatrice della Commissione europea, Vicky Harisi, parla con “K” degli studi in corso sull’uso dell’intelligenza artificiale (AI) da parte dei bambini, degli effetti, delle sfide e del piano d’azione della comunità internazionale.

Vicky Harisi è una ricercatrice presso il Centro comune di ricerca della Commissione europea con un interesse speciale per gli effetti dell’intelligenza artificiale sul comportamento umano ed esperienza nell’interazione bambino-robot.

Se uno cerca di ricordare le immagini dei suoi momenti spensierati della sua infanzia, la sua mente sicuramente “correrà” al momento in cui giocava spensierato a nascondino con i suoi amici. Generazioni e generazioni sono cresciute e stanno ancora crescendo giocando a nascondino a scuola, in casa e in campagna. Tuttavia, a molti bambini delle scuole elementari ora viene chiesto di giocare a “nascondino” diverso a scuola. E questo perché in questo particolare gioco non stanno cercando di trovare il loro fidanzato o fidanzata, ma un’applicazione di intelligenza artificiale.

Nello specifico, un insegnante di quinta elementare in una scuola di Lexington, nel Kentucky, ha chiesto ai suoi studenti di… giocare a “nascondino” con ChatGPT. Ventitré studenti hanno scritto ciascuno un saggio sul campione di boxe, Muhammad Ali, e poi hanno condiviso i saggi tra di loro per identificare il testo unico che era stato scritto sulla base delle risposte di ChatGPT. Secondo il loro insegnante, Donny Piercy, l’obiettivo era che i bambini “ingannassero” il chatbot e non viceversa, poiché a un certo punto l’intelligenza artificiale diventerà parte della loro vita quotidiana.

Robot nelle aule delle scuole elementari

La ricercatrice del Centro comune di ricerca della Commissione europea, Vicky Harisi, parlando a “K” della ricerca condotta da lei e dal suo team presso il Centro comune di ricerca della Commissione europea (Joint Research Centre), analizza gli effetti che i robot sociali nello sviluppo cognitivo e sociale dei bambini.

“Recentemente abbiamo condotto uno studio sperimentale in Spagna con 86 studenti delle scuole elementari. Lì abbiamo creato squadre ibride di due bambini (5-7 anni) e un robot, a cui è stato chiesto di risolvere un problema in modo cooperativo. Abbiamo utilizzato un’attività cognitiva di risoluzione dei problemi (il compito della Torre di Hanoi), che il robot ha catturato con due telecamere e ha chiesto ai bambini di risolvere il problema insieme al robot seguendo passaggi specifici. La comunicazione con il robot era basata sul dialogo e su elementi non verbali. Abbiamo creato due scenari: in uno il robot suggeriva sempre la risposta corretta mentre nel secondo sbagliava deliberatamente. In questo processo abbiamo notato che quando il robot commetteva errori, provocava discussioni più ampie tra i bambini che influivano sulla cooperazione tra gli studenti. Inoltre, nelle interviste con i bambini, abbiamo notato che gli studenti — dopo la loro interazione con i robot — spesso hanno sviluppato fiducia nel robot, anche nel caso in cui il robot commettesse errori “, sottolinea la ricercatrice della Commissione europea, aggiungendo che la comunità scientifica internazionale sta ancora cercando di capire come e perché i bambini sviluppino fiducia nei robot sociali.

I bambini usano già le app IA ma spesso non lo sanno

E mentre la comunità educativa ha espresso la sua preoccupazione per ChatGPT, l’accesso degli studenti delle scuole elementari ad applicazioni e dispositivi che utilizzano l’intelligenza artificiale è comune, ma è fatto a loro insaputa, come sottolinea Vicky Harisi in “K”.

“L’utilizzo di sistemi di raccomandazione basati su tecniche di intelligenza artificiale è già diffuso. Inoltre, nel contesto dell’istruzione, molti bambini utilizzano sistemi di tutoraggio intelligenti online per un insegnamento personalizzato in cui possono determinare il ritmo e il modo di apprendere varie materie con ottimi risultati”, sottolinea, sottolineando che ora la comunità educativa globale osserva un rapido sviluppo derivante dal modo in cui gli studenti utilizzano applicazioni di grandi modelli linguistici con l’obiettivo di preparare i loro compiti in varie materie.

Il ricercatore della Commissione europea ritiene che strumenti come ChatGPT agevolino gli studenti nell’accesso rapido e semplice al materiale utilizzando il linguaggio naturale, nell’apprendimento personalizzato e nel migliorare la loro interazione con il materiale didattico.

“Soprattutto per i bambini con abilità di apprendimento speciali, l’integrazione di tali strumenti in dispositivi che convertono la lingua scritta in parlata può essere un catalizzatore per la loro educazione”, afferma, offrendo un’altra prospettiva sull’uso scolastico delle applicazioni di intelligenza artificiale in futuro.

Lo sviluppo del pensiero critico è imperativo

Tuttavia, il fatto che ci siano elementi positivi nell’uso dei chatbot nelle scuole non significa che non portino diverse sfide, che gli studenti non sono ancora pronti ad affrontare, e che i bambini piccoli siano perfettamente pronti a “giocare con loro”.

“C’è un imperativo bisogno di sviluppare il pensiero critico dei bambini, in modo che non accettino acriticamente informazioni e testi prodotti in questo modo. Hanno anche bisogno di azioni innovative appropriate e rapide in modo che lo Stato, la scuola e gli studenti possano farne un uso efficace e sicuro e ottenere i massimi benefici”, afferma la signora Harisi, sottolineando che esistono già studi che mostrano l’entità di gli effetti delle nuove tecnologie sul comportamento e sullo sviluppo dei bambini.

Adattare gli obiettivi dell’istruzione grazie all’intelligenza artificiale

Sulla base dei risultati della ricerca sugli effetti dell’intelligenza artificiale sui bambini, l’UNICEF ha già proposto un elenco di linee guida per la tutela dei diritti dei bambini nell’ambito dell’intelligenza artificiale, come il diritto alla privacy e alla protezione dei loro dati nonché come la necessità di trasparenza nei sistemi decisionali quando si interagisce con i bambini. In qualità di membro di gruppi internazionali che promuovono i diritti dell’infanzia come definiti dalle Nazioni Unite, B. Harisi sottolinea che per la progettazione e lo sviluppo di applicazioni sicure per i bambini, la cooperazione delle agenzie statali, con ricercatori specializzati e applicazioni di intelligenza artificiale con le società di sviluppo di tali applicazioni è imperativo.

Ma possiamo lasciare che i bambini interagiscano liberamente con applicazioni e robot di intelligenza artificiale, o gli esperti dovrebbero creare un quadro specifico per il loro corretto utilizzo e familiarità con loro?

La signora Harisi ritiene che l’uso di tecnologie basate sull’intelligenza artificiale troverà rapidamente il suo posto nelle scuole. Tuttavia, la sua integrazione deve essere fatta con metodo.

“Non dobbiamo dimenticare che l’obiettivo è utilizzare queste tecnologie per migliorare il processo di apprendimento ma anche per proteggere gli studenti dagli effetti negativi”, afferma la ricercatrice, ritenendo che per questo motivo dovrebbero esserci cambiamenti negli obiettivi dell’istruzione.

“Si dovrebbe porre maggiore enfasi sulle attività che sviluppano non solo le conoscenze tecniche dei bambini su queste tecnologie, ma soprattutto le loro capacità cognitive che ne consentono un uso corretto come nuovo strumento educativo”, suggerisce, concludendo che a suo avviso, la comunità internazionale è già consapevole di sostenere lo sviluppo dei bambini nel contesto dell’intelligenza artificiale.

Fonte: kathimerini.gr, 17-02-23