L’ “alba” dei robot intelligenti. L’intelligenza può essere separata dal corpo?

Quanto è reale un’intelligenza artificiale senza corpo?

Qual è il rapporto della mente con il corpo? La mente è il “controllore” che muove il corpo attraverso il mondo? Oppure il corpo manipola la mente con la fame, l’insonnia e lo stress, come un fiume impone la sua direzione a una canoa? La mente è solo onde elettromagnetiche, un “fantasma” imprigionato negli stretti confini di una macchina?

Domande come queste hanno occupato i filosofi per secoli ormai e l’ascesa dell’Intelligenza Artificiale li sta riportando al dibattito accademico e pubblico. Famosi (e alcuni dicono famigerati) chatbot come GPT-4 di OpenAI e Bard di Google “pensano”, in un certo senso: addestrati su innumerevoli dati generati dall’uomo, hanno imparato a comporre risposte inedite che assomigliano al linguaggio umano, a creare falsi foto e video che sembrano reali. Possono persino esprimere desideri, speranze, intenzioni, amore. A volte parlano di introspezione, di domande, fiducia in se stessi e rimpianti.

https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale

“Intelligenza disincarnata”

Tuttavia, alcuni ricercatori di intelligenza artificiale ritengono che la tecnologia non raggiungerà il livello di “vera intelligenza” o capirà veramente il mondo, a meno che non sia abbinata a un corpo in grado di percepire, reagire e percepire il suo ambiente. Per loro, parlare di intelligenza disincarnata è sbagliato, persino pericoloso.

Un sistema di intelligenza artificiale che non è in grado di esplorare il mondo e apprendere i suoi limiti nello stesso modo in cui i bambini capiscono gradualmente cosa possono e non possono fare, potrebbe commettere errori potenzialmente letali e perseguire i propri obiettivi a scapito del benessere umano.

“Il corpo, in un modo molto semplice, è la base per un’azione intelligente e consapevole”, afferma Joshua Bongard, ricercatore di robotica presso l’Università del Vermont. “Per quanto ne so, questa è l’unica strada per un’intelligenza artificiale sicura”.

In un laboratorio di Pasadena, in California, un piccolo team di ingegneri ha perseguito, negli ultimi anni, una delle prime combinazioni di un grande modello linguistico con un corpo meccanico: un robot turchese di nome Moxie.

Alta come un bambino Moxie si presenta con una testa, mani morbide e gentili occhi digitali. All’interno del suo corpo in plastica dura c’è un processore che esegue lo stesso tipo di software di ChatGPT e dell’avanzato GPT-4. I creatori di Moxie, alla startup Embodied, descrivono il dispositivo come “il primo amico robotico al mondo con Intelligenza Artificiale” .

L’idea del robot è nata nel 2017. Gli inventori di Moxie volevano aiutare i bambini con disturbi dello sviluppo a praticare la percezione emotiva e le abilità comunicative. Quando qualcuno parla con Moxie, il suo processore converte il suono in testo e lo invia a un modello linguistico di grandi dimensioni, che a sua volta risponde verbalmente, insieme a una corrispondente risposta fisica.

https://www.asterios.it/catalogo/luomo-disincarnato

Gli occhi di Moxie sono espressivi e possono confortarti per la perdita del tuo cane. Può sorridere per rallegrare i bambini prima della scuola. Il robot dispone anche di sensori che ricevono stimoli visivi e rispondono al linguaggio del corpo dell’utente. Moxie imita e impara dal comportamento di coloro che lo circondano. “Ricorda la comunicazione wireless tra esseri umani”, afferma Paolo Pirkhanian, esperto di robot e fondatore di Embodied. “Inizi letteralmente a sentirlo nel tuo corpo”, aggiunge. Nel tempo, il robot migliora nell’interazione, come un nuovo amico che impara a conoscerci.

Il robot ha preso le mie fiches

I ricercatori di Alphabet, la società madre di Google, stanno adottando un approccio simile per incorporare grandi modelli linguistici nelle macchine. A marzo, l’azienda ha annunciato una pietra miliare: il robot PaLM-E è stato in grado di ricevere stimoli visivi dal suo ambiente e, combinati con informazioni sulla posizione del suo corpo, tradurre i dati in linguaggio naturale. Ciò ha permesso al robot di spiegare con successo dove si trovava nello spazio rispetto ad altri oggetti e alla fine aprire un cassetto e recuperare un sacchetto di patatine.

In futuro, i robot di questa classe saranno in grado di eseguire attività di base senza una programmazione speciale. Potrebbero, ad esempio, riempirti il ​​bicchiere di soda, prepararti il ​​pranzo o sollevarti dal pavimento dopo una brutta caduta, tutto in risposta a semplici comandi. Ma molti ricercatori dubitano che la mente macchina, strutturata in questo modo, riesca a connettersi davvero con il mondo naturale. Pertanto, non sarà mai in grado di sviluppare aspetti critici dell’intelligenza umana, sostengono.

Boyan Chen, un esperto di robotica alla Duke University che lavora allo sviluppo di robot intelligenti, sottolinea che la mente umana – o la mente di qualsiasi altro animale – è indissolubilmente legata alle azioni e alle reazioni del corpo nel mondo reale, che si sono formate attraverso milioni di anni di evoluzione. I bambini, ad esempio, imparano a raccogliere oggetti molto prima di imparare a parlare.

Al contrario, la mente dei robot IA è stata sviluppata basandosi esclusivamente sul linguaggio e spesso cade in errori di buon senso. Manca una connessione più profonda tra il fisico e il teorico, afferma il dott. Chen. “Credo che l’intelligenza non possa nascere senza la prospettiva dell’incarnazione”.

Alcuni esperti, tra cui il dott. Pirkhanian, hanno recentemente espresso preoccupazione per la possibilità di sviluppare un sistema di intelligenza artificiale che possa sopraffare gli esseri umani “senza curarsene” nel perseguimento di un obiettivo casuale (come la produzione efficiente di elementi di fissaggio), o che potrebbe essere sfruttato per scopi dannosi (come campagne di disinformazione). Nella loro lettera, i ricercatori hanno chiesto una sospensione temporanea dell’apprendimento di modelli più forti di GPT-4.

Il Dott. Pirkhanian riconosce che anche il suo stesso robot potrebbe essere considerato una tecnologia pericolosa da questo punto di vista: “Immagina di avere un amico robot fidato, che senti come un membro della famiglia, ma che ti fa sottilmente il lavaggio del cervello”, dice. Per evitare ciò, il suo team di ingegneri ha addestrato un altro programma per monitorare il comportamento di Moxie e segnalare o prevenire qualsiasi cosa potenzialmente dannosa o preoccupante.

Il Dott. Beaugardt ritiene che la lettera che chiede di interrompere l’apprendimento dei sistemi di intelligenza artificiale potrebbe causare disinformazione. Ma ammette di essere preoccupato per i pericoli della tecnologia in continua evoluzione e crede che l’unico modo per infondere all’IA incarnata una comprensione significativa dei suoi limiti sia attraverso prove ed errori nel mondo reale.

“Inizia con robot semplici”, dice. “E mentre dimostrano di poter fare le cose in sicurezza, lascia che abbiano più mani e più gambe, dai loro più strumenti”. E forse, con l’aiuto di un corpo, emergerà una vera mente artificiale.

Fonte: stampa estera

__________________________________________________________________