La paura dell’IA è esagerata, ed ecco perché

La popolarità senza precedenti di ChatGPT ha messo il turbo alla macchina dell’hype AI. Siamo bombardati quotidianamente da articoli che annunciano la più grande invenzione dell’umanità: l’Intelligenza Artificiale (AI). L’intelligenza artificiale è “qualitativamente diversa”, “trasformativa”, “rivoluzionaria”, “cambierà tutto”, dicono. OpenAI, la società dietro ChatGPT, ha annunciato un importante aggiornamento della tecnologia alla base di ChatGPT chiamato GPT4. I ricercatori Microsoft affermano già che GPT4 mostra “scintille di intelligenza artificiale generale” o intelligenza simile a quella umana, il Santo Graal della ricerca sull’IA. Vengono fatte affermazioni fantastiche sul raggiungimento del punto di ” Singolarità AI ” di macchine che eguagliano e poi superano l’intelligenza umana.

La stampa economica parla di centinaia di milioni di perdite di posti di lavoro poiché l’intelligenza artificiale sostituirà gli esseri umani in tutta una serie di professioni. Altri si preoccupano di un prossimo futuro simile alla fantascienza in cui l’IA super intelligente diventa canaglia e distrugge o schiavizza l’umanità. Queste previsioni sono fondate sulla realtà o è solo una montatura esagerata che l’industria tecnologica e la macchina pubblicitaria VC sono così brave a vendere?

L’attuale generazione di modelli di intelligenza artificiale si basa su cose chiamate “reti neurali”. Mentre il termine “neurale” evoca immagini di un cervello artificiale simulato utilizzando chip di computer, la realtà dell’IA è che le reti neurali non assomigliano per niente a come funziona effettivamente il cervello umano. Queste cosiddette reti neurali non hanno alcuna somiglianza con la rete di neuroni nel cervello. Questa terminologia è stata, tuttavia, una delle ragioni principali per cui le “reti neurali” artificiali sono diventate popolari e ampiamente adottate nonostante i suoi gravi limiti e difetti.

Gli algoritmi di “Machine Learning” attualmente utilizzati sono un’estensione dei metodi statistici che mancano di una giustificazione teorica per estenderli in questo modo. I metodi statistici tradizionali hanno il pregio della semplicità. È facile capire cosa fanno, quando e perché funzionano. Arrivano con assicurazioni matematiche che i risultati della loro analisi sono significativi, presupponendo condizioni molto specifiche. Poiché il mondo reale è complicato, queste condizioni non valgono mai e, di conseguenza, le previsioni statistiche sono raramente accurate. Economisti, epidemiologi e statistici lo riconoscono e quindi usano l’intuizione per applicare le statistiche per ottenere una guida approssimativa per scopi specifici in contesti specifici. Questi avvertimenti sono spesso trascurati, portando all’uso improprio dei metodi statistici tradizionali con conseguenze talvolta catastrofiche, come nella Grande Crisi Finanziaria del 2008 o nell’esplosione di LTCM nel 1998, che ha quasi fatto crollare il sistema finanziario globale. Ricorda la famosa citazione di Mark Twain, “Bugie, dannate bugie e statistiche”.

L’apprendimento automatico si basa sul completo abbandono della cautela che dovrebbe essere associata all’uso giudizioso dei metodi statistici. Il mondo reale è disordinato e caotico e quindi impossibile da modellare utilizzando i metodi statistici tradizionali. Quindi la risposta dal mondo dell’IA è abbandonare ogni pretesa di giustificazione teorica sul perché e come questi modelli di intelligenza artificiale, che sono molti ordini di grandezza più complicati dei metodi statistici tradizionali, dovrebbero funzionare. La libertà da questi vincoli di principio rende il modello AI “più potente”. Sono esercizi di adattamento della curva effettivamente elaborati e complicati che adattano empiricamente i dati osservati senza che noi comprendiamo le relazioni sottostanti.

Ma è anche vero che questi modelli di intelligenza artificiale a volte possono fare cose che nessun’altra tecnologia può fare. Alcuni risultati sono sorprendenti, come i passaggi che ChatGPT può generare o le immagini che DALL-E può creare. Questo è fantastico per stupire le persone e creare clamore. Il motivo per cui funzionano “così bene” è la quantità sbalorditiva di dati di addestramento, sufficienti a coprire quasi tutti i testi e le immagini creati dagli esseri umani. Anche con questa scala di dati di addestramento e miliardi di parametri, i modelli di intelligenza artificiale non funzionano spontaneamente ma richiedono soluzioni alternative ad hoc per produrre risultati desiderabili.

Anche con tutti gli hack, i modelli spesso sviluppano correlazioni spurie, cioè funzionano per le ragioni sbagliate. Ad esempio, è stato riportato che molti modelli di visione funzionano sfruttando le correlazioni relative alla trama dell’immagine, allo sfondo, all’angolazione della fotografia e a caratteristiche specifiche. Questi modelli di intelligenza artificiale danno quindi cattivi risultati in situazioni incontrollate. Ad esempio, un divano con stampa leopardata verrebbe identificato come un leopardo; i modelli non funzionano quando alle immagini viene aggiunta una piccola quantità di rumore a schema fisso non rilevabile dall’uomo o le immagini vengono ruotate, ad esempio nel caso di un’auto capovolta dopo un incidente. ChatGPT, nonostante tutta la sua impressionante prosa, poesia e saggi, non è in grado di eseguire la semplice moltiplicazione di due grandi numeri, cosa che può fare facilmente una calcolatrice degli anni ’70.

I modelli di intelligenza artificiale non hanno alcun livello di comprensione umana, ma sono bravi a imitare e ingannare le persone facendogli credere di essere intelligenti ripetendo a pappagallo il vasto tesoro di testo che hanno ingerito. Per questo motivo, la linguista computazionale Emily Bender ha chiamato i Large Language Models come ChatGPT e BART e BERT di Google “Stochastic Parrots” in un articolo del 2021 . Ai suoi coautori di Google, Timnit Gebru e Margaret Mitchell, è stato chiesto di togliere i loro nomi dal giornale. Quando hanno rifiutato, sono stati licenziati da Google.

Questa critica non è rivolta solo agli attuali modelli di linguaggio di grandi dimensioni, ma all’intero paradigma del tentativo di sviluppare l’intelligenza artificiale. Non diventiamo bravi nelle cose solo leggendole, questo deriva dalla pratica, dal vedere cosa funziona e cosa no. Questo è vero anche per compiti puramente intellettuali come leggere e scrivere. Anche per discipline formali come la matematica, non si può diventare bravi in ​​matematica senza praticarla. Questi modelli di intelligenza artificiale non hanno uno scopo proprio. Pertanto, non possono comprendere il significato o produrre testo o immagini significativi. Molti critici dell’IA hanno sostenuto che la vera intelligenza richiede una “situazione” sociale.

Fare cose fisiche nel mondo reale richiede di affrontare la complessità, la non linearità e il caos. Implica anche la pratica nel fare effettivamente quelle cose. È per questo motivo che i progressi sono stati estremamente lenti nella robotica: i robot attuali possono gestire solo attività ripetitive fisse che coinvolgono oggetti rigidi identici, come in una catena di montaggio. Anche dopo anni di clamore sulle auto senza conducente e ingenti finanziamenti per la sua ricerca, la guida completamente automatizzata non sembra ancora fattibile nel prossimo futuro.

L’attuale sviluppo dell’intelligenza artificiale basato sul rilevamento di correlazioni statistiche utilizzando “reti neurali”, che sono trattate come scatole nere, promuove un mito basato sulla pseudoscienza della creazione di intelligenza a costo di sviluppare una comprensione scientifica di come e perché queste reti funzionano. Invece, enfatizzano spettacoli come la creazione di dimostrazioni impressionanti e il punteggio in test standardizzati basati su dati memorizzati.

Gli unici casi d’uso commerciali significativi delle attuali versioni dell’IA sono gli annunci pubblicitari: prendere di mira gli acquirenti per i social media e le piattaforme di streaming video. Ciò non richiede l’elevato grado di affidabilità richiesto da altre soluzioni ingegneristiche; devono solo essere “abbastanza bravi”. E i cattivi risultati, come la diffusione di notizie false e la creazione di bolle filtro piene di odio, rimangono in gran parte impuniti.

Forse un lato positivo in tutto questo è che, date le desolate prospettive della singolarità dell’IA, la paura che le IA dannose superintelligenti distruggano l’umanità è esagerata. Tuttavia, ciò è di scarso conforto per coloro che ricevono “sistemi decisionali AI”. Abbiamo già numerosi esempi di sistemi decisionali di intelligenza artificiale in tutto il mondo che negano alle persone legittime richieste di risarcimento assicurativo, prestazioni mediche e di ricovero e prestazioni assistenziali statali. I sistemi di intelligenza artificiale negli Stati Uniti sono stati implicati nell’incarcerazione di minoranze a pene detentive più lunghe. Ci sono state persino segnalazioni di revoca dei diritti genitoriali a genitori di minoranza sulla base di correlazioni statistiche spurie, che spesso si riducono al fatto che non hanno abbastanza soldi per nutrire e prendersi cura adeguatamente dei propri figli. E, naturalmente, sulla promozione dell’incitamento all’odio sui social media. “ChatGPT mostra qualcosa come la banalità del male: plagio, apatia e ovvietà”.

Fonte: Globetrotter.

https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale