La domanda ha poco senso, perché le parole “Intelligenza Artificiale” indicano, per ora, qualcosa che è poco definito e che è in attiva evoluzione; Intelligenza Artificiale ha, per ora, troppi significati. Accennare ai suoi risultati più recenti può aiutare a definire la domanda.

  1. Ricerca di definizione di cosa si intende per Intelligenza.
  2. La constatazione che il cervello della specie umana funziona meglio on line.
  3. Non sembrava possibile.

aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale

1. Intelligenza

Niente di più potenzialmente ambiguo di questa parola. Prendiamo allora un pannello ampio di definizioni pubblicate del termine “Intelligenza e facciamone una accurata analisi comparata di tipo strutturalistico. Partiamo dallo studio di compilazione [A collection of Definitions of Intelligence, di Shane Legg e Markus Hutter, IDSIA-07-07 Technical Report] nel quale sono state raccolte settanta definizioni, necessariamente in inglese. La scelta della lingua è in qualche modo obbligata dalla necessità di non rimanere limitati da processi di selezione legati ad una cultura particolare; in italiano, ad esempio, sono molto più rappresentate le definizioni di tipo psicanalitico e filosofico che quelle di tipo neurobiologico. Molte di queste definizioni sono discorsive o ripetitive, si avvicinano più a descrizioni che a definizioni. Nondimeno, certe parole sono più rappresentate di altre, il che permette di ottenere una definizione consensuale.

Eseguiamo poi il raggruppamento dei termini delle definizioni prima di tutto in base alla loro qualità grammaticale (raggruppamento primario), dividendoli in: sostantivi, aggettivi, verbi, pronomi, avverbi e locuzioni. Poi riuniamoli, all’interno di ogni gruppo, in base alla somiglianza di significato (raggruppamento secondario).

Nel raggruppamento secondario vengono collegati i nomi strettamente correlati e gli aggettivi ad essi connessi (come ad esempio Abstraction, Abstractness, Abstract). Nell’esempio di analisi riportata qui di seguito vengono indicati in grassetto i termini ed i valori numerici presenti più di 10 volte su 70 (scelta arbitraria, come del resto è arbitrario il procedimento di raggruppamento), ed i nomi scelti come rappresentativi dei raggruppamenti più numerosi:                       

Ability, abilities, presente 44 volte nelle settanta definizioni. / Capability (-ies), Capacity (-ies), presente 21 volte su 70. / Faculty (of), presente 3 volte. In totale, sommando la frequenza di queste parole raggruppate per somiglianza di significato, abbiamo che i termini correlati ad ”Ability” sono presenti 68 volte su 70. Tra le differenti parole del gruppo “ability, capability-capacity, faculty of” viene scelta “Ability” perché è la più frequente.

Proseguendo allo stesso modo:

Abstraction, Abstractness 3. /    Abstract, abstractly    5./ Totale  8.// Termine non selezionato perché presente meno di 10 volte.

to Act  3./  Action  1./ Activity (-ies) 2./  Agent  1./  to Deal with   3./  to Do 1./ to Engage   1./ Totale 12.// Questo raggruppamento viene dunque selezionato perché totalizza più di 10 presenze e, all’interno del gruppo, viene scelto “to act” perché più frequente.

Achievement  1./ to Achieve  3./ Advancement  1./  to Carry on  2./ Performance   3./ Totale 10.// Adaptation, adaptness   4./ Adaptive  3./  Adjustment  4./ to Adaptto Adjust  12./     Aptitude  1./  Accommodation  1./ Adequate, adequately  2./ Adaptive  3./  Appropriate, appropriately  5./  Totale 35.    

Alertness  1.Attention (span of)  1./  Aptitude 1.to Comprehend   4./  to Realize  1./  to Understand, understanding  9./ Totale 14.

Altri esempi di raggruppamento, più in là lungo la lista:

to Create  1./  to Generate  1./  to Demand  1./ to Differ  1./ to Enable  1./  to Encompass  1./  to Exercise  1./  to Enter 1./  to Find (one self in) 1./  to Function, functioning  1./  to Generalize  1./ to Give, given  1./ to  Grasp 1./  to Have  1./   to Incorporate, incorporating  2./  to Include  1./ to Inhibit, inhibited 1./  to Increase  1./  to Involve  1./  to Learn, learning, learned  22./  Knowledge 10./  Totale 32. Eccetera, eccetera, proseguendo lungo i raggruppamenti di aggettivi, di verbi, di pronomi, e di allocuzioni.

Accanto a pagine nelle quali si incontrano parole ripetute ed in qualche modo condivise, si incontrano lunghe liste di parole presenti pochissime volte, o una volta sola.  Ad esempio: Experience, experienced  1./  Extent (to which)  1./   Fact(s)   3./  Things 1./  Concrete1./  Facility  1./  Factor  1./   Flexibility  1./  Forces  1./   Form(s)  1./   Formation  1./  Framework  1./ Function(s)  1./ Get (better)  1./  Ideas  3./  Imagination, imaginally 4./  Impulse(s)  1./  Industry  1./   Information  1./  Initiative  1./  Intelligence test  1./  Interest 1.  Questo procedimento rivela pagine e pagine di parole disperse, apparentemente prive di vera rappresentatività definitoria.

Selezionando i termini più frequenti all’interno dei gruppi più rappresentati, la definizione consensuale risulta infine essere:

Intelligence [70] is the mental [17] ability [68] to adapt [35] to new [12] environment(s) [34] for a goal [24], to learn [32], and to understand [14]. L’intelligenza è la capacità mentale di adattarsi a nuovi ambienti con uno scopo, di imparare, e di capire.

E’ importante a questo punto aver ben presente che questa definizione dice cosa si pensi sia l’Intelligenza, non cosa essa sia. E’ poi molto interessante riflettere, oltre che su cosa è presente nella definizione, anche a cosa manca e a cosa è poco rappresentato. Manca creativity, manca conscious e consciousness; emotion, emotional sono presenti una sola volta, ideas 3 volte, memory 4, mind 4, manca arte, invenzione, e tanto altro.

Comunque questo è come vediamo noi stessi, organismi che usano la mente per sopravvivere. E’ questo che vogliamo dalle macchine alle quali cerchiamo di insegnare a pensare?

 

2. Il cervello della specie umana funziona meglio on line

Constatiamo il fatto che i cervelli degli esseri umani propendono a mettersi in-line tra loro, e che probabilmente lo fanno anche molti altri tipi di animali. Il che fa pensare che in realtà in qualche modo lo facciano tutti gli organismi pensanti. Un sommario di quel che segue: comunità dei cervelli umani, simile in principio alla messa in-line di computer; i cervelli umani si mettono in rete per acquisire un vantaggio evolutivo. Una estensione della analisi ci porterebbe alla ricerca della definizione del significato dell’individuo all’interno del gruppo di suoi simili, e bisognerebbe allora focalizzare il ragionamento sull’esempio più chiaro che abbiamo davanti agli occhi: gli insetti sociali.

aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

Abbiamo tutti davanti agli occhi le immagini che mostrano file di computer allineati e connessi per svolgere funzioni troppo complesse per le macchine singole. L’obiettivo di questa messa in rete è quello di sommare tra loro le attività delle macchine individuali ed ottenere un risultato che potrebbe, forse, essere una proprietà emergente. In genere con i computer si ottiene la somma delle prestazioni individuali, non si spostano i limiti delle capacità dell’intelligenza artificiale.

L’ immagine di macchine collegate suggerisce la domanda: sono le menti umane “normalmente” interconnesse tra loro? Homo sapiens è un organismo sociale, ciò che pensa quando è solo è diverso da ciò che pensa quando è in compagnia. Per il suo cervello è quindi importante il luogo e la situazione nei quali si trova quando elabora i suoi pensieri, se è solo o è in gruppo. Le idee si formano, si esprimono, e si trasmettono agli altri. Quando faccio un pensiero, creo qualcosa di comunicabile. Trasmetterlo o meno è ciò che fa la differenza.

aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

Umberto Eco, discutendo il senso e la storia dell’enciclopedia cita l’idea, suggerita nel De disciplinis, dell’enciclopedia come continuo accrescimento d’informazione dovuto alla civile conversazione (1). Il De disciplinis (1523) è un testo di Ludovico Vives nel quale “egli chiama enciclopedia le varie cose che l’educando deve conoscere con esplicito riferimento a Plinio e ad altri enciclopedisti classici” (2).

Ludovico Vives era intellettuale catalano attivo nella prima metà del ‘500, una delle persone più colte della sua epoca, amico di Erasmo da Rotterdam, attivo riformatore, visse tra Oxford e Bruges. E’ considerato il precursore della psicologia moderna, compito della quale è per lui lo studio dei fatti e processi dell’anima e, con le sue osservazioni sull’associazione delle idee, della memoria e degli affetti.

E’ interessante notare l’accostamento di conversazione e accrescimento di informazione che viene fatto nel De disciplinis. Accrescimento di informazione tramite lo scambio di parole è ciò che gli uomini fanno da sempre, ed è probabilmente la ragione del successo evolutivo della parola. Gli esempi sono tanto comuni ed ovvii da passare inosservati: la scuola, la piazza del paese, la cena con gli amici, tante istituzioni diverse ed in tutte le culture, l’importante è parlare, scambiarsi idee in forma compiuta. Dalla parola alla scrittura, e alla fine l’enciclopedia.

Un esempio dalla letteratura. Madame de La Fayette (nata Pioche) fu una precorritrice dei tempi e della libertà intellettuale delle donne. Le sue opere avevano successo e come scrittrice era, nella Parigi della seconda metà del ‘600, molto seguita. Il romanzo La Princesse de Clèves fu concepito a quattro mani nel corso del decennio 1670 dalla duchessa di La Fayette e dal duca de la Rochefoucault. Nella pièce “Duc et Pioche. Dialogue entre Madame de La Fayette et Monsieur de la Rochefoucault “ Jean-Marie Besset esplora la genesi del romanzo e descrive come il testo sia nato dalla lunga ed amicale frequentazione del duca e la duchessa. L’autore di Maximes ebbe una stretta e fedele amicizia con la duchessa e le rendeva visita quotidiana nell’appartamento di rue de Vaugirard. Avevano deciso di scrivere insieme “il più bel romanzo del mondo”, ed il duca consigliava e correggeva quello che la duchessa scriveva. La loro amicizia permise la nascita di un oggetto nuovo, una storia nella quale lo spirito delle Massime dava corpo a personaggi e situazioni credibili ed esemplari; ed è anche possibile che la duchessa abbia ispirato alcune massime. Se ne trae l’immagine verosimile di due cervelli in comunicazione mirata a svolgere un compito e ad arrivare ad una soluzione originale. Il che effettivamente avvenne.

Un esempio letterario ad ampio spettro. Aulo Gellio è uno scrittore latino del secondo secolo, del quale si sa molto poco. Di lui è rimasto Le notti attiche, raccolta di piccoli fatti e piccole storie dalle quali risalta un metodo conviviale e socializzante di conversazione e di discussione. Il libro offre un esempio suggestivo e affascinante di quanto sia bello ragionare in compagnia. Trascrivo l’incipit di alcuni capitoli della sua opera.

Dal libro I, II, [1-3]: [1] Erode Attico […] invitava spesso nelle sue ville fuori città […] me e il dignitario Serviliano e numerosi altri nostri compatrioti che erano venuti da Roma in Grecia per coltivare le loro menti. [2] Così una volta che eravamo con lui nella villa detta Cefisia … segue la narrazione della discussione su temi di interesse filosofico stoico e la descrizione che lui e altri avevano vissuto insieme qualcosa che valeva la pena raccontare.

Dal Libro II, XXI, [1-3]: [1] Eravamo parecchi, Greci e Romani, studiosi delle stesse discipline, e sulla stessa nave facevamo la traversata da Egina al Pireo. [2] Era notte, il mare era calmo, la stagione era estiva e il cielo era limpido e calmo. Così ci siamo seduti tutti insieme a poppa, guardando le stelle brillanti. [3] È stata l’occasione per noi che conoscevamo la scienza greca di impegnarci in dotte e profonde dispute su una serie di problemi. Si parla poi di argomenti di filologia, di origine delle parole, di costellazioni, del fatto che quelle conversazioni erano rimaste nelle loro menti.

Dal Libro III, I, [1, 2]: [1] Verso la fine dell’inverno passeggiavamo per la piazza dei bagni di Tizio godendoci il tepore del sole, in compagnia del filosofo Favorino; e mentre passeggiavamo leggevamo il Catilina di Sallustio… Vengono indagate e discusse le ragioni dell’affermazione di Sallustio secondo cui l’avidità ammorbidisce non solo l’anima dell’uomo, ma anche il suo corpo. Ed altro, approfittando del tepore del sole e dell’essere in compagnia.

In Notti attiche troviamo altri inizi in cui filtra l’ambiente colloquiale e sociale di ciò che verrà raccontato. Ce n’è uno in cui sono descritte le persone in piazza in attesa di rendere omaggio all’imperatore (IV, I, 1): Una folla di persone di ogni ceto sociale si era radunata nel vestibolo del palazzo Palatino, in attesa di salutare l’imperatore; e lì in un gruppo di studiosi, alla presenza del filosofo Favorino, un uomo ben versato nella grammatica … .

Un altro incipit (III, XIX,1) introduce la scena del pranzo in casa di Favorino durante il quale uno schiavo letterato legge ad alta voce un testo di interesse filologico: Nei pranzi del filosofo Favorino, una volta preso posto e cominciato a servire il cibo, un servitore, in piedi accanto alla sua tavola, cominciava a leggere brani della letteratura greca o locale. Un giorno, per esempio, mentre ero lì, ha letto il libro dello studioso Gabio Basso Sull’origine dei verbi e dei sostantivi .

Dalla lettura di questo testo resta l’immagine precisa di un mondo in cui le idee passavano da una mente all’altra, ed era un piacere conservarle nella memoria. Ecco allora che, tornando alla domanda iniziale, abbiamo già individuato la differenza tra un sistema informatico in rete e un gruppo di cervelli umani in compagnia: il puro piacere degli esseri umani di stare insieme, di elaborare insieme idee, di sentirsi insieme come, apparentemente, fine in se stesso. In realtà, il piacere è la ricompensa che il cervello umano fornisce a se stesso per svolgere la importantissima funzione di lavorare in compagnia.

Sistemi scalari. Non che intorno ad un tavolo per cenare e parlare siamo tutti uguali, sempre e contemporaneamente. Di volta in volta, chi parla ha un ruolo centrale, quello di fornire input agli altri cervelli che sono tenuti ad assumerli ed elaborarli. La gerarchia fa parte del sistema. Ne troviamo un esempio in queste parole di Plinio il Giovane, rivolte all’Imperatore:

O non pranzi sempre in pubblico e la tua mensa non è aperta a tutti? Non è forse un piacere reciproco pranzare insieme? Non sei tu ad animare la conversazione e a prendervi parte?  (3).

E’ un chiaro esempio di machine learning stabilizzato e gerarchizzato, trasferito all’uomo. Il sistema di organizzazione degli insetti sociali ne è l’esempio più funzionale ed estremo, ed ha molto da insegnare.

 

3. Organismi sociali, epigenetica evoluta

Moltissimi organismi vivono in gruppi, all’interno dei quali può vigere una eguaglianza di ruoli e di comportamento, oppure una differenziazione e specializzazione a vario grado. Esempi del primo tipo sono quello dei polipi dei coralli, tutti uguali, o uno sciame di farfalle. Più spesso però all’interno del gruppo esistono ruoli e differenziazioni ben definiti sin dalla nascita: api, vespe, formiche, e termiti, e tanti altri, in grado più o meno spinto. Il genoma di una formica è unico e ben stabilito: si può sequenziare e depositare in una banca dati. Ad esso corrisponde un nome di genere ed un nome di specie. Quello che viene tramandato è un blocco unico di informazioni. All’interno di questo blocco è però iscritto un meccanismo di selezione dell’espressione dei geni che indirizza in modo forte l’organismo verso un determinato fenotipo al quale corrisponde una funzione precisa: operaio, guerriero, regina, e altri fenotipi specializzati, a seconda del genere e della specie in considerazione. All’interno di un singolo corredo genomico, regole ferree dettate dall’ epigenetica programmano metabolismo, istinti e comportamenti innati, comportamenti appresi, adattabilità. [Nota 1, Epigenetica]. I risultati sono spesso strabilianti, ed i limiti dei singoli corpi sono sempre superati dai risultati ottenibili ed ottenuti dal corpo più grande dell’insieme del gruppo. Le api imparano e comunicano tra loro attraverso linguaggi che conosciamo poco ma che sono in grado di trasmettere tutte le informazioni rilevanti ad ottenere risultati complessi. Non c’è ragione di credere che anche le vespe, e le formiche, e gli altri insetti sociali non facciano altrettanto.

Rimangono con poca risposta le domande più importanti: ha un’ape coscienza di sé? Quanto il suo sistema percettivo è esclusivamente digitale, e quanto integra tra loro gli input sensoriali? Quanto riesce a trasmettere delle sue esperienze? Che stratificazione hanno le sue memorie?

 

4. Non sembrava possibile

4. 1. Dove sta arrivando l’Intelligenza Artificiale

La definizione di IA non è facile; credo che uno dei problemi generali sia quello di considerarla esclusivamente in rapporto alla intelligenza umana. Wikipedia ad esempio riporta: l’Intelligenza Artificiale è una disciplina che appartiene all’Informatica. Studia le basi teoriche, le metodologie e le tecniche che permettono la pianificazione di sistemi hardware e di sistemi di programmi software che forniscono all’elaboratore elettronico le funzioni che un osservatore esterno riterrebbe appartenere esclusivamente all’intelligenza umana.

Definizioni più specifiche di Intelligenza Artificiale sono in genere formulate focalizzando su “processi interni di ragionamento”, o sul “comportamento esterno di un sistema intelligente”, utilizzando come misura di efficienza la somiglianza con il comportamento umano, o la somiglianza con un comportamento ideale, definito come “razionale”. Il comportamento razionale si ha quando il sistema è in grado di: (i) agire in modo umano (il risultato di una operazione eseguita da un sistema intelligente non è distinguibile da quello eseguito da un umano). (ii) Pensare in modo umano (il processo che permette al sistema intelligente di risolvere un problema è simile al processo umano). (iii) Pensare razionalmente (il processo che permette al sistema intelligente di risolvere un problema è un processo formale basato sulla logica). (iv) Agire razionalmente (il processo che permette al sistema intelligente di risolvere un problema è quello che permette di ottenere il migliore risultato possibile data l’informazione disponibile).

L’Intelligenza Artificiale è dunque definita in rapporto all’intelligenza umana. Questo rappresenta un limite, potenzialmente pericoloso e certamente limitante, e formalizza una incapacità di coglierne eventuali aspetti innovativi. Esaminare i risultati ottenuti di recente può comunque aiutare a capire meglio.

 

4. 2. Letteratura, commedia, giochi

Davvero non ci aspettavamo che questo momento arrivasse così presto. Una macchina di Facebook AI Research ha prodotto un testo letterario coerente e leggibile. Riuscire a scrivere qualcosa che gli altri notoriamente vogliono leggere non è né semplice né scontato. Il processo ha previsto di insegnare alla macchina a costruire un piano narrativo; sostenerlo con frasi di dialogo e passaggi di commento; mantenere la coerenza; seguire uno stile. In questo caso specifico, la macchina era dotata di una libreria di 272.600 testi scritti da esseri umani, ciascuno accompagnato da una sorta di guida-spiegazione. La macchina li ha rapidamente assorbiti e ha ricreato la propria storia combinatoria, entro il limite di 150 parole che le era stato assegnato. La storia inizia così: “Sono passate due settimane e l’ultimo della mia specie se n’è andato“(4). Ovviamente spero che non si riferisse alla specie umana.

Un esperimento simile è stato condotto sulla possibilità che una macchina possa generare testi umoristici. È risaputo che far ridere la gente è difficile anche per uno scrittore umano. Quindi l’esperimento è stato al limite dell’arroganza e non è chiaro se abbia funzionato bene. Tuttavia, un robot con un vocabolario di 50.000 parole, apprese leggendo i sottotitoli di 10.000 film, ha più volte intrattenuto migliaia di spettatori in festival teatrali in Canada e in Inghilterra, suscitando risate. Una risata è quasi sempre generata dal senso dell’imprevisto, dalla “rottura dello schema logico della realtà“, come diceva il filosofo di fine Ottocento Henry Bergson nel suo testo Le Rire. Non c’è da meravigliarsi, quindi, che le frasi generate dall’intelligenza artificiale possano facilmente e ripetutamente rompere questo schema, forse intromettendosi in modo più illogico che ridicolo. Stiamo assistendo alla nascita di un nuovo genere di commedia? O l’intelligenza artificiale ci dice qual è veramente il nostro senso dell’umorismo?

Quanto ai giochi, il processo è stato semplice. Una macchina ha ricevuto una raccolta di giochi elettronici come Super Mario o Mega Man, insieme a video delle espressioni facciali delle persone che li giocano e ad un programma di apprendimento automatico. La macchina ha inventato nuovi giochi, nuove combinazioni di situazioni, nuovi personaggi, molti dei quali hanno un potenziale successo di mercato (5). Alcuni somigliavano stranamente a Pokemon esistenti.

Testi letterari, commedie umoristiche, giochi elettronici. A quando la poesia?

aaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

Sono dunque ormai raggiunti risultati di tipo espressivo-descrittivo, quelli che tentano di far produrre ad una macchina testi comici, narrativi, ludici. In tutti questi casi il risultato è raggiunto attraverso l’accesso delle macchine a grandi banche dati di partenza: testi letterari, sottotitoli di film, raccolte di poesie e di poemi di varie epoche e di diverse culture. Una estensione recente di questo tipo di risultati è quella che vede una macchina tradurre in immagini una frase, il che corrisponde a fare un film, ovvero creare una rappresentazione visiva di un concetto e/o di una serie di concetti collegati, una storia.

Il sistema è molto competitivo, ed i primi risultati sono stati ottenuti dalla Microsoft con il suo Open’s DALL-e 2 integrato in Microsoft Office, e da Stability AI con Stable Diffusion. Il risultato più avanzato sembra essere quello ottenuto da Meta’s Make-a-Video AI in collaborazione con Google Imagen Video, che genera video di 5 secondi a partire da 16 immagini corrispondenti a un modello text-to-image. Il metodo è chiamato Text-to-video AI algorythms.  Il limite tecnico non risolto è il controllo del movimento e la correlazione temporale delle immagini. Ovvero manca la correlazione temporale tra le immagini e la dinamica dell’azione. Ma una dinamica c’è, ed è quella che è voluta dall’algoritmo. Che per ora il prodotto non corrisponda alla sensibilità umana è, in qualche modo, un problema nostro, e le macchine sapranno come risolverlo, o come far finta di averlo risolto a nostro gradimento.  Siamo in questo caso giunti al bordo delle sinestesie e della costruzione di un vissuto fittizio.

 

4. 3. Azioni mirate e risultato operativo sul campo

Una delle frontiere della IA è quella di esplorare fino a che punto una applicazione robotica può giungere combinando machine-learning con modelli fisici di rappresentazione dello spazio. Il machine-learning è di per sé una semplificazione del processo di istruzione dell’IA. Una macchina impara “meglio” (più semplicemente) da un’altra macchina, che gli parla con lo stesso linguaggio; se si insegna qualcosa ad una macchina A, questa la trasmette senza problemi di interferenza e di elaborazione di nuovo linguaggio algoritmico alla macchina B.

Un risultato della applicazione di questi metodi è Golfi (di Annika Junker, della tedesca Università Paderborn), il primo robot capace di localizzare una pallina da golf su un campo verde e spingerla in buca con un singolo colpo, uno swing. La macchina è complessa: ha in memoria 3000 tipi di colpi possibili, è collegata ad una camera 3D che gli fornisce visione del campo, delle palline e della buca. Il robot sceglie il tipo di tiro, provandoli “mentalmente” tutti, calcola massa, frizione, velocità iniziali e successive, con questo sviluppa un network neurale che decide forza ed angolazione del tiro, poi tira, senza sbagliare quasi mai. Naturalmente lo scopo non è quello di vincere un torneo di golf, i componenti del sistema possono essere facilmente sostituiti. Da ordigni contenenti esplosivo, ad esempio.

 

4. 4. Le macchine rispondono alle macchine

Una inattesa ed interessante osservazione a proposito del machine learning riguarda uno studio sui “prompts”. Nel linguaggio di IA: se si dà ad una macchina un “prompt”, questa fornisce una risposta. La macchina è un computer con una rete neurale istruita da un ampio insieme di dati (che, sempre nel linguaggio IA, viene detto Large Language Model LLM). L’osservazione è di Yongchao Zhou dell’Università di Toronto (6), che ha sviluppato un modello di linguaggio per formulare prompts, su vari aspetti di attività umane focalizzate soprattutto sulla comprensione di problemi e di interpretazione. Il risultato: se il prompt, la domanda, era formulata da un computer, la risposta del secondo computer era molto più accurata di quella ottenuta alla stessa domanda formulata da uno specialista umano. Il prosieguo della ricerca è obbligato: far creare una serie di prompts ad una macchina, facendo a meno dell’intervento iniziale umano. Il nome della macchina formula-domande sarà Automatic Prompt Engineer. E’ utile ricordare la frase di Luis Borges: le domande partecipano al divino, le risposte alla prestidigitazione.

 

4. 5. Percezione dell’ambiente

Altro campo di evoluzione di IA è la percezione. Homo sapiens, nell’afflato di curiosità analitica che lo caratterizza, ha sviluppato metodi di determinazione della struttura delle molecole, ed i risultati hanno finora avuto straordinarie applicazioni nella chimica strutturistica e nella dinamica molecolare: come definire la struttura di una proteina partendo dalla sequenza dei nucleotidi che la codificano sul DNA, ad esempio. Un’altra direzione applicativa è quella appena sviluppata da Joel Mainland dell’Università di Pennsylvania in collaborazione con Google, che ha a che fare con il senso dell’odorato. Il sistema osmico-percettivo umano è complesso, ed il corredo neuronale specifico è formato da circa 300 recettori di odore (molti, se comparati ai soli tre tipi di sensori dei colori dell’occhio umano: rosso, blu, verde); per l’odorato esistono nelle differenti popolazioni umane molte varianti epigenetiche, soprattutto a carico dei livelli di attivazione dei vari recettori; e molte varianti individuali nella valutazione della “qualità” dell’odore percepito.

Quando una molecola stimola un recettore nel naso, si attiva un processo di trasporto del segnale, fino ad arrivare alla sua elaborazione all’interno del centro cerebrale preposto, seguito dall’uso dell’informazione.

Quanto pubblicato dal gruppo di Mainland e Google (7) è la definizione del contenuto odorifero delle molecole, a partire dalla loro struttura. Lo scopo dichiarato è la predizione di aromi alimentari, di essenze per profumi, o di repellenti per insetti. I risultati consistono nella creazione di una mappa neurale che connette la struttura di una molecola al suo odore, permettendone la predizione. Il metodo seguito è quello classico: sono stati forniti ai computer gruppi di dati relativi a 5000 molecole e ai loro odori, poi processo di machine learning, poi verifica di quanto appreso su molecole diverse, e confronto con quello che riusciva a fare un gruppo di esseri umani. Le macchine sono risultate ovviamente all’altezza del compito, dimostrando che per collegare un odore con una molecola non serve passare attraverso il cervello umano. Secondo gli autori, la rete neurale è in grado di fornire una rappresentazione delle molecole che non ha precedenti, e che è in qualche modo legata a qualche processo mentale totalmente ignoto.

La strada seguita da questo esperimento sembrerebbe puramente digitale (una molecola, una risposta), ma il risultato è molto vicino a quello che nella nostra mente è un risultato analogico: sappiamo bene che odori definiti risvegliano in noi memorie definite. Ed immaginiamo il passo successivo di Mainland-Google: due molecole, due odori; tre molecole, tre odori; ed ecco che comincia a prender forma l’aroma del caffè, o quello della paura, o quello di altri tanti possibili ricordi.

Il che ci riporta alla domanda iniziale: se IA si estende al campo delle percezioni, quanto le manca per entrare a pieno titolo nell’analogico?

 

4. 6. Sonno

La risposta è: poco. Ricercatori della UCSD hanno osservato che il sonno ha nei computer funzioni simili a quelle umane. Un problema, finora senza soluzione, era che non si possono insegnare due cose contemporaneamente ad una rete neurale; e che un secondo training spesso cancella la memoria di quanto appreso in precedenza, con un meccanismo interpretato come sovra-iscrizione (over-writing) (8). Entrano in gioco nel discorso la funzione negli umani del sonno, il ruolo dei sogni, lo stabilizzarsi e l’avvicendarsi delle memorie

Il gruppo di Maxim Bazhenof ha fatto una cosa semplice e di grande rilevanza potenziale. Dopo aver insegnato una prima cosa, ha frammentato i periodi di insegnamento della seconda, alternandoli a periodi di rumore di fondo. Questa seconda situazione corrisponde a quello che si pensa sia vicino al concetto di sonno, o comunque gli corrisponde funzionalmente. In questo caso, la rete di neuroni artificiali ha continuato ad imparare, senza over-writing, a mente fresca.

Una breve digressione, forse solo apparentemente tale: quale è il vero significato del sonno? La constatazione di partenza è che tutti gli organismi dotati di un sistema nervoso dormono. Il sonno dei polpi, che hanno un sistema nervoso organizzato in modo differente dal nostro, pur usando gli stessi principi fisici e biochimici, è stato studiato e descritto. Il distacco dalla realtà circostante è pericoloso; in termini di sopravvivenza il sonno andrebbe evitato, ma sembra essere una necessità irrinunciabile del sistema.

Emanuel Swedenborg (1688-1772) ha per primo descritto il liquido cefalorachidiano, identificato mentre era alla ricerca della sede dell’anima. Swedenborg non riuscì a divulgare la sua scoperta, fatta nel 1741; le sue osservazioni furono pubblicate soltanto nel 1887. Il liquido cefalorachidiano è il vettore di rimozione di residui metabolici da parte del sistema glinfatico, ed oggi conosciamo il rapporto tra sistema gliale e sonno. L’osservazione della maggiore efficienza del sistema glinfatico durante l’attività delta Stadio 3 del sonno (quello ad onde di bassa frequenza) ha apportato la prima prova diretta che la clearance dei rifiuti interstiziali accresce di intensità in momenti non di veglia. Su questa base si è ipotizzato che le proprietà ristorative del sonno possono essere legate alla rimozione dei metaboliti di scarto prodotti durante l’attività neurale nei momenti di maggior funzionamento, la veglia appunto. La rimozione degli scarti è realizzata tramite lo scorrimento convettivo del fluido interstiziale, facilitato dalla presenza di acquaporine nella membrana degli astrociti.  Le acquaporine sono canali trans-membrana che giocano un ruolo cruciale nella regolazione del flusso di acqua dentro e fuori dalla cellula.

Ma forse non è tutto lì, ed il sonno serve anche ad altro. Questo esperimento di Bazhenov suggerisce che staccare il sistema dopo l’apprendimento permette l’apprendimento successivo. Cosa succede ai neuroni che hanno “imparato”, che si sono organizzati in nuovi cluster? Sono questi i neuroni che nel sistema ANN hanno aumentato il loro peso funzionale e che nel sistema animale hanno stabilizzato alcuni nuovi dendriti ed hanno stabilito nuove connessioni? Comunque, questo “qualcosa” non può non avvenire e, per farlo, richiede che il sistema riposi per un pò.

 

4. 7. Tra presente e futuro prossimo

Abbiamo finora visto che IA è giunta a: creazione di comicità e di brevi narrazioni interessanti (generazione di empatia), sinestesia (generazione di sequenze di immagini a partire da parole), percezione di sensazioni (odori), azioni multiple nello spazio aperto (lettura di ed interazione con l’ambiente), scambio di idee preferenziale con i propri simili (machine learning), funzione ristoratrice del sonno (soluzione parziale del problema dell’apprendimento multiplo). Cosa manca ai sistemi IA per raggiungere un vero stato analogico, se non mettere insieme le tessere del mosaico? Questo, se si seguita a seguire come modello il sistema nervoso animale, significa raggruppare unità funzionali in gruppi, in nodi definiti da azioni pregresse; significa creare esperienza dal passato per azioni future, definire una memoria funzionale. Menziono allora il lavoro “Clusterability in Neural Networks” del gruppo di Stuart Russel (9), nel quale vengono considerate le possibilità di creare sottoinsiemi specializzati all’interno di una rete neurale. Finora il sistema non aveva trovato applicazione pratica a causa della perdita di memoria e di precisione dovuta a insegnamenti successivi. La scoperta di Bazhenof del “sonno ristoratore” apre la strada al raggruppamento e specializzazione multipla, la vera sinestesia. Nelle parole introduttive degli autori:

“I pesi da apprendimento di una rete neurale sono stati spesso considerati privi di una struttura interna analizzabile. In questo lavoro cerchiamo una struttura nella forma dei raggruppamenti (clusterability): quanto e come una rete può essere divisa in gruppi di neuroni con forte connettività interna ma debole connettività esterna. Osserviamo che una rete neurale che abbia appreso mostra raggruppamenti interni tipicamente maggiori rispetto a reti neurali inizializzate a caso, e spesso è più raggruppabile rispetto a reti casuali con la stessa distribuzione di pesi. Mostriamo nuovi metodi per promuovere raggruppabilità nell’apprendimento di reti neurali, e troviamo che in percettroni multi-strato questi metodi portano a reti più raggruppabili con poca riduzione di accuratezza. Capire e controllare la raggruppabilità di reti neurali renderà forse i loro funzionamenti interni più interpretabili, facilitando la ripartizione in raggruppamenti significativi.”

Se l’apprendimento crea differenze riconoscibili nelle strutture che hanno appreso, siamo veramente molto vicini a quello che succede nel cervello animale, alla creazione di memorie-guida.

aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

La storia dello sviluppo delle reti neurali non è lineare. Ingrid Russel ha messo in evidenza (10) come, ad un periodo di forte interesse e sviluppo durato dal loro concepimento negli anni ’40 (11) fino a quando non è stata ottenuta la prova matematica delle limitazioni dei percettroni e della loro debolezza intrinseca nei processi computazionali (12), è seguito un periodo di stasi. Queste limitazioni sono dovute al massiccio parallelismo usato dal cervello umano, che lo rende particolarmente efficiente nel risolvere in contemporanea problemi diversi. I percettroni sono particolarmente adatti a risolvere problemi semplici di classificazione e di riconoscimento di pattern. Progressi teorici e tecnici hanno portato negli ultimi anni allo sviluppo di sistemi neurali più complessi, tra i quali la Boltzmann machine, il Hopfield’s network, il Kohonen’s network, il Rumelhart’s competitive learning model, il Fukushima’s model, ed il Carpenter and Grossberg’s Adaptive Resonance Theory model (13, 14). I risultati recenti di IA esposti in precedenza usano questi modelli. Lo stato dell’arte odierno è la costruzione di nuove architetture neurali, classificate secondo scopi e strutture definite nel ImageNet LargeScale Visual Recognition Challenge 2014 (ILVRC14).

 

Referenze bibliografiche

(1) U Eco, Scritti sul pensiero medievale, Bompiani, Il pensiero occidentale, p551.

(2) William N. West 1997 “Public knowledge and private parties”, in Binkley, ed. (1997).

(3) Plinio il giovane, Panegirico a Traiano, 50, 5.

(4) arxiv.org/abs/1805.04833, arxiv.org/abs/1809.10736.

(5) arxiv.org/abs/1809.02232.

(6) arxiv.org/abs/2211.01910)

(7) bioRxiv,doi.org/jb72, e bioRxiv,doi.org/jb73

(8) Bazhenov M. el al., PLoS Computational Biology, DOI:10.1371/journal.pcbi.1010628

(9) D. FilanS. CasperS. HodC. Wild, A. Critch e S. Russell, Clusterability in Neural Networks”, arXiv:2103.03386v1 [cs.NE] (doi.org/10.48550/arXiv.2103.03386).

(10) Russel I., Introduction to neural networks, The UMAP Journal 14(1) 2018.

(11) McCulloch, W., and W. Pitts. 1943. A logical calculus of the ideas imminent in nervous activity. Bulletin of Mathematical Biophysics 5: 115-33.

(12) Minsky, M., and S. Papert. 1969. Perceptrons. Cambridge, MA: MIT Press.

(13) Wasserman, P. 1989. Neural Network Computing. New York: Van Nostrand Reinhold.

(14) Freeman, J., and D. Skapura. 1991. Neural Networks. Reading MA: Addison-Wesley. The UMAP Journal 14(1).

 

Note
Nota 1, Epigenetica. Per Epigenetica si intende, formalmente: la trasmissione di tratti e comportamenti senza cambiamenti della sequenza genica.  Alla nascita il DNA che porta le istruzioni scritte sulla sua sequenza di nucleotidi ha con sé poche informazioni d’uso di queste informazioni. Nasciamo con un hardware genetico di DNA completo, in grado di fare molte cose diverse tra loro, in vari momenti della esistenza. Non potrebbe essere diversamente, dato che nasciamo una volta sola.

L’espressione di queste informazioni va regolata, ed i sistemi per mettere in atto questa regolazione vengono creati man mano che l’organismo si sviluppa. Ovvero: vivendo, il DNA crea il software epigenetico per il proprio funzionamento; si dota di istruzioni per l’uso. Nella realtà fisica, queste modificazioni sono dovute a piccole molecole che interagiscono con il DNA e che su di esso iscrivono il vissuto dell’organismo. “Su” di esso, “epi”-genetica, appunto. Oltre ad essere una sequenza di sostanze chimiche, di per sé stabile ed ereditabile in quanto tale, il DNA può quindi anche essere modificato in modo non permanente durante la propria vita. Questi cambiamenti possono essere in parte ereditabili per qualche generazione.

Oltre ad essere il depositario dell’informazione a lungo termine, il DNA ha dunque una memoria a breve termine, conserva traccia della propria esperienza, e dell’esperienza del resto del corpo. Lo scopo di questo straordinario meccanismo di gestione dell’informazione è quello di modulare in modo flessibile la risposta comportamentale momento per momento. Il DNA impara e scrive su di sé la propria esperienza, la propria cultura. Il DNA crea i meccanismi per lèggere la propria Biblioteca.


https://www.asterios.it/catalogo/epimente