I modelli di intelligenza artificiale pensano?

 

Queste macchine sono semplicemente dei pappagalli dotati, o meglio, delle macchine copia-incolla incredibilmente sofisticate. Questo ha profonde implicazioni per il futuro dell’intelligenza artificiale che ci hanno tutti promesso. Alcune positive, altre più preoccupanti.

La prima è: no, l’intelligenza artificiale globale non è dietro l’angolo. È tutta una montatura. In realtà, siamo ancora lontani anni luce.

La buona notizia è che non dobbiamo preoccuparci di avere “sovrani dell’IA” nel prossimo futuro. La cattiva notizia è che potremmo potenzialmente ritrovarci con migliaia di miliardi di dollari di capitale mal allocato. […]


La lettura di acro-polis.it, Quotidiano di idee, per la Libertà, la Pace e la Giustizia sociale e climatica è gratuita, ma la pubblicazione non è gratuita, ha dei costi. Se pensi che facciamo una buona cosa, anche se non ti piace il contenuto:

Aiutaci a rimanere Paywall-free ♥ Contribuisci acquistando i volumi delle nostre collane di libri su carta, e delle edizioni di www.asterios.it


 

 

L’intelligenza artificiale non può risolvere un problema che non sia stato precedentemente risolto da un essere umano.
—Arnaud Bertrand

Si potrebbe dire molto sull’IA, ma i punti fondamentali sono pochi. Considerate queste mie ultime parole sull’argomento stesso. (Riguardo al suo uso improprio da parte dello stato di sicurezza nazionale, ne parlerò più avanti.)

L’IA mostruosa

L’IA non porterà altro che danni. Come ho detto prima, l’IA non è solo un disastro per la nostra salute politica, anche se sì, lo sarà (si veda la frase di Cadwallader “costruire uno stato di sorveglianza tecno-autoritario”). Ma l’IA è anche un disastro per il clima. Accelererà il collasso di decenni con l’espansione del suo utilizzo.

(Guarda il video qui sopra per scoprire perché i modelli di intelligenza artificiale consumano moltissima energia. Guarda questo video per capire meglio le “reti neurali” stesse.)

Perché l’IA non verrà fermata? Perché la corsa all’IA non è in realtà una corsa alla tecnologia. È una corsa all’avidità per il denaro, tanto denaro. Le nostre vite sono già gestite da chi cerca denaro, soprattutto da chi ne ha già fin troppo. Ora hanno trovato un modo per sfamarsi ancora più velocemente: convincendo le persone a fare semplici ricerche con l’IA , una macchina di morte che consuma benzina .

Per entrambe queste ragioni – sorveglianza di massa e disastro climatico – l’IA non porterà alcun beneficio. Nemmeno un grammo.

Un robot orfano, abbandonato per crescere se stesso

Perché l’intelligenza artificiale continua a commettere errori? Di seguito offro una risposta .

L’intelligenza artificiale non pensa. Fa qualcos’altro. Per una spiegazione completa, continua a leggere.

Arnaud Bertrand sull’intelligenza artificiale

Arnaud Bertrand ha la migliore spiegazione di cosa sia l’intelligenza artificiale nel suo nucleo. Non è una macchina pensante e il suo output non è pensiero. In realtà è l’opposto del pensiero: è ciò che si ottiene da una matricola che non ha studiato, ma ha imparato qualche parola e le usa per sembrare intelligente. Se lo studente ha successo, non lo si chiama pensiero, ma solo una buona emulazione.

Dato che Bertrand ha pubblicato il testo seguente su Twitter , lo pubblicherò integralmente. La versione estesa è un post a pagamento sul suo sito Substack. In conclusione: ha perfettamente ragione. (Nel titolo qui sotto, AGI significa Intelligenza Artificiale Generale , il passo successivo rispetto all’IA.)


Apple ha appena ucciso il mito dell’AGI

I costi nascosti dell’illusione più costosa dell’umanità
di Arnaud Bertrand

Circa due mesi fa stavo discutendo su Twitter con qualcuno che mi diceva di essere “davvero deluso dalla mia opinione” e che avevo “completamente torto” ad affermare che l’intelligenza artificiale era “solo un pappagallo estremamente dotato che ripete ciò per cui è stato addestrato” e che questa non era minimamente intelligenza.

Facciamo un salto in avanti fino a oggi e la questione è ormai autorevolmente risolta: avevo ragione, sì! 🎉

Come? È stato risolto nientemeno che da Apple, in particolare dal suo dipartimento di ricerca sul Machine Learning, in un fondamentale articolo di ricerca intitolato “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity” che potete trovare qui ( https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf ).

I modelli “ragionanti” possono ragionare?
Possono risolvere problemi per i quali non sono stati addestrati? No.

Cosa dice l’articolo? Esattamente quello che stavo sostenendo: i modelli di intelligenza artificiale, persino i modelli di ragionamento di grandi dimensioni (LRM) più all’avanguardia, non sono altro che pappagalli dotatissimi, praticamente privi di capacità di ragionamento.

Non sono minimamente “intelligenti”, almeno non se per intelligenza si intende la capacità di risolvere problemi in modo autentico, anziché ripetere a pappagallo ciò che ci è stato detto prima senza comprenderlo.

Questo è esattamente ciò che il documento di Apple cercava di capire: i modelli di “ragionamento” possono davvero ragionare? Possono risolvere problemi per i quali non sono stati addestrati, ma che normalmente sarebbero facilmente risolvibili con la loro “conoscenza”? La risposta, a quanto pare, è un inequivocabile “no”.

Un esempio particolarmente incriminante tratto dall’articolo era questo enigma sull’attraversamento di un fiume: immaginate 3 persone e i loro 3 agenti che devono attraversare un fiume su una piccola barca che può trasportare solo 2 persone alla volta. Il problema? Una persona non può mai essere lasciata sola con l’agente di qualcun altro, e la barca non può attraversare vuota: qualcuno deve sempre remare per tornare indietro.

Questo è il tipo di rompicapo logico che potresti trovare in un libro di rompicapo per bambini: trovare la giusta sequenza di viaggi per far attraversare il fiume a tutti. La soluzione richiede solo 11 passaggi.

A quanto pare, questo semplice rompicapo era impossibile da risolvere per Claude 3.7 Sonnet, una delle IA “ragionanti” più avanzate. Non riusciva nemmeno ad andare oltre la quarta mossa prima di fare mosse illegali e infrangere le regole.

Eppure la stessa identica intelligenza artificiale potrebbe risolvere in modo impeccabile il puzzle della Torre di Hanoi con 5 dischi, una sfida molto più complessa che richiede 31 mosse perfette in sequenza.

Perché questa enorme differenza? I ricercatori Apple l’hanno capito: la Torre di Hanoi è un classico rompicapo informatico che si trova ovunque su internet, quindi l’IA ne aveva memorizzato migliaia di esempi durante l’addestramento. Ma un rompicapo di attraversamento di un fiume con 3 persone? A quanto pare, è troppo raro online perché l’IA ne abbia memorizzato gli schemi.

Tutto ciò dimostra che questi modelli non stanno affatto ragionando. Un sistema veramente razionale riconoscerebbe che entrambi gli enigmi implicano lo stesso tipo di pensiero logico (seguire regole e vincoli), solo con scenari diversi. Ma poiché l’IA non ha mai imparato a memoria lo schema di attraversamento del fiume, è andata completamente persa.

Non si trattava nemmeno di una questione di calcolo: i ricercatori hanno dato ai modelli di intelligenza artificiale budget illimitati di token con cui lavorare. Ma la parte davvero bizzarra è che per enigmi o quesiti che non riuscivano a risolvere – come l’enigma dell’attraversamento del fiume – i modelli hanno iniziato a pensare meno, non di più; hanno usato meno token e si sono arresi più velocemente.

https://www.asterios.it/catalogo/analogico-e-digitale

Un essere umano che si trova di fronte a un enigma più difficile normalmente impiegherebbe più tempo a rifletterci sopra, ma questi modelli di “ragionamento” hanno fatto l’opposto: hanno sostanzialmente “capito” di non avere nulla da ripetere a pappagallo, quindi hanno semplicemente rinunciato, l’opposto di ciò che ci si aspetterebbe da un ragionamento genuino.

Conclusione: sono semplicemente dei pappagalli dotati, o meglio, delle macchine copia-incolla incredibilmente sofisticate.

Questo ha profonde implicazioni per il futuro dell’intelligenza artificiale che ci hanno tutti promesso. Alcune positive, altre più preoccupanti.

La prima è: no, l’intelligenza artificiale globale non è dietro l’angolo. È tutta una montatura. In realtà, siamo ancora lontani anni luce.

La buona notizia è che non dobbiamo preoccuparci di avere “sovrani dell’IA” nel prossimo futuro. La cattiva notizia è che potremmo potenzialmente ritrovarci con migliaia di miliardi di dollari di capitale mal allocato. […]

Pubblicato originariamente su God’s Spies.


https://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale


I volumi delle collane di acro-polis libri su carta e di Asterios sono sempre disponibili in amazon.it Libri e IBS.it

Sono ordinabili in tutte le Librerie.

Se poi volete ricevere ricchi omaggi e cotillon ordinate da questo sito e dal sito di www.asterios.it