Quando l’intelligenza artificiale diventa un banchiere centrale

 

Si prevede che l’intelligenza artificiale sarà ampiamente utilizzata dalle banche centrali in quanto comporta notevoli risparmi sui costi e vantaggi in termini di efficienza. Tuttavia, come si sostiene in questo articolo, solleva anche domande difficili su quali compiti possono essere esternalizzati in modo sicuro all’IA e cosa deve rimanere nelle mani dei decisori umani. I responsabili delle decisioni senior dovranno apprezzare in che modo i consigli sull’IA differiscono da quelli prodotti dagli specialisti umani e modellare le loro politiche sulle risorse umane e la struttura organizzativa per consentire l’uso più efficiente dell’IA senza che essa minacci la missione dell’organizzazione.

Le banche centrali stanno implementando rapidamente l’intelligenza artificiale (AI), spinte dalla promessa di maggiore efficienza e riduzione dei costi. I motori di intelligenza artificiale stanno già fungendo da banchieri centrali. Ma con la maggior parte delle applicazioni di IA oggi di basso livello e con la natura conservativa delle banche centrali, l’adozione dell’IA è più lenta che negli istituti finanziari del settore privato. Tuttavia, la direzione del viaggio sembra inevitabile, con l’IA destinata ad assumere ruoli sempre più importanti nelle banche centrali. Ciò solleva interrogativi su ciò che possiamo affidare all’IA e su dove gli esseri umani devono essere responsabili.

Potremmo pensare che l’economia e in particolare il sistema finanziario — il dominio delle banche centrali — sia l’applicazione ideale per l’IA. Dopotutto, l’economia e il sistema finanziario generano quantità quasi infinite di dati, quindi molto su cui l’IA può allenarsi. Ogni minuto viene registrata la decisione istituzionale finanziaria e le negoziazioni sono timbrate al microsecondo. Le e-mail, i messaggi e le telefonate dei trader e le interazioni importanti dei decisori con i clienti vengono registrate e le banche centrali hanno accesso a dati economici molto granulari. Ma i dati non equivalgono alle informazioni e dare un senso a tutti questi flussi di dati è come bere da una manichetta antincendio. Ancora peggio, le informazioni sul prossimo evento di crisi o episodio inflazionistico potrebbero non essere nemmeno nei dati osservati.

Cosa può e cosa non può fare l’IA

A rischio di semplificare eccessivamente, è utile pensare ai vantaggi e alle minacce dell’IA in un continuum.

Da un lato, abbiamo un problema con obiettivi ben definiti, regole immutabili delimitate e spazio di azione finito e conosciuto, come il gioco degli scacchi. Qui, l’intelligenza artificiale eccelle, prendendo decisioni molto migliori degli umani. Potrebbe anche non aver bisogno di dati perché può generare i propri set di dati di addestramento.

Per le banche centrali, ciò include operazioni quotidiane ordinarie, monitoraggio e decisioni, come l’applicazione delle regole microprudenziali, il funzionamento del sistema di pagamento e il monitoraggio dell’attività economica. L’abbondanza di dati, regole e obiettivi chiari ed eventi ripetuti lo rendono ideale per l’IA. Lo vediamo già nel settore privato, con Aladdin basato sull’intelligenza artificiale di Blackrock che funge da motore di gestione del rischio più importante al mondo. I robo-regolatori incaricati di “RegTech” sono un’applicazione AI ideale. Al momento, tale lavoro può essere svolto da professionisti con una laurea o un master, e le banche centrali impiegano un gran numero di questi. Le banche centrali possono innanzitutto percepire il valore della collaborazione dell’IA con il personale umano per affrontare alcuni dei tanti lavori che richiedono attenzione, senza alterare i livelli del personale. Tuttavia, con il passare del tempo, le banche centrali possono crescere per abbracciare le decisioni superiori e i risparmi sui costi che derivano dalla sostituzione dei dipendenti con l’intelligenza artificiale. Ciò è principalmente possibile con l’odierna tecnologia AI (Noy e Zhang 2023, Ilzetzki e Jain 2023.)

Man mano che le regole si confondono, gli obiettivi diventano poco chiari, gli eventi poco frequenti e lo spazio d’azione confuso, l’IA inizia a perdere il suo vantaggio. Ha informazioni limitate su cui allenarsi e decisioni importanti potrebbero attingere a domini al di fuori del set di dati di addestramento dell’IA.

Banche centrali, finanza verde e crisi climatica

Ciò include l’analisi dell’attività economica di livello superiore, che può coinvolgere economisti di livello PhD che redigono rapporti e prevedono rischi, inflazione e altre variabili economiche — lavori che richiedono una comprensione completa di dati, statistiche, programmazione e, soprattutto, economia. Tali dipendenti potrebbero generare raccomandazioni sulle tipiche decisioni di politica monetaria basate su alcune regole di tipo Taylor, l’ottimizzazione macroprudenziale della composizione e l’ammontare della liquidità e delle riserve di capitale o l’analisi delle turbolenze del mercato. Sebbene il livello di abilità per tale lavoro sia superiore a quello delle attività ordinarie, una lunga storia di ricerche ripetute, unita a strutture di analisi standard, lascia una quantità significativa di materiale su cui l’IA può allenarsi. E, soprattutto, tale lavoro non comporta molte analisi astratte. L’intelligenza artificiale potrebbe in futuro superare il personale umano in tali attività e i responsabili delle decisioni senior potrebbero apprezzare i rapporti più rapidi e accurati dell’IA. Questo sta già accadendo rapidamente, ad esempio, con ChatGPT e le previsioni supervisionate dall’intelligenza artificiale.

La crisi e le teorie delle crisi: 3. La Great Recession e la teoria delle crisi di Marx

In casi estremi, come decidere e come rispondere alle crisi finanziarie o al rapido aumento dell’inflazione — eventi che il tipico banchiere centrale potrebbe affrontare solo una volta nella vita professionale — i decisori umani hanno il vantaggio poiché potrebbero dover fissare i propri obiettivi, mentre gli eventi sono essenzialmente unici, le informazioni estremamente scarse, i consigli degli esperti sono contraddittori e lo spazio di azione sconosciuto. Questa è l’unica area in cui l’IA è in svantaggio e potrebbe essere superata dall’analista astratto umano (Danielsson et al. 2022)

In tali situazioni, gli errori possono essere catastrofici. Negli anni ’80, un’intelligenza artificiale chiamata EURISKO usò un simpatico trucco per sconfiggere tutti i suoi concorrenti umani in un wargame navale, affondando le proprie navi più lente per ottenere una migliore manovrabilità rispetto ai suoi concorrenti umani. E questo è il problema con l’IA. Come sappiamo che farà la cosa giusta? Agli ammiragli umani non è necessario dire che non possono affondare le proprie navi; lo sanno e basta. Il motore AI deve essere informato. Ma il mondo è complesso e creare regole che coprano ogni evenienza è impossibile. L’intelligenza artificiale alla fine si imbatterà in casi in cui prende decisioni critiche che nessun essere umano troverebbe accettabili.

Naturalmente, i decisori umani sbagliano più spesso dell’intelligenza artificiale. Ma ci sono differenze cruciali. I primi vengono anche con una vita di esperienza e conoscenza di campi rilevanti, come filosofia, storia, politica ed etica, consentendo loro di reagire a circostanze impreviste e prendere decisioni soggette a standard politici ed etici senza che sia necessario precisarli. Sebbene l’intelligenza artificiale possa prendere decisioni migliori di un singolo essere umano per la maggior parte del tempo, attualmente ha solo una rappresentazione del mondo, mentre ogni essere umano ha la propria visione del mondo individuale basata su esperienze passate. Le decisioni di gruppo prese da decisori con punti di vista diversi possono portare a decisioni più solide rispetto a un’IA individuale. Nessuna tecnologia AI attuale o prevista può prendere tali decisioni di consenso di gruppo (Danielsson et al. 2020).

Inoltre, prima di affidare agli esseri umani i domini più importanti, possiamo chiedere loro come prenderebbero decisioni in scenari ipotetici e, soprattutto, chiedere loro di giustificarle. Possono essere ritenuti responsabili ed essere tenuti a testimoniare alle commissioni del Senato. Se sbagliano, possono essere licenziati, puniti, incarcerati e perdere la loro reputazione. Non puoi fare nulla di tutto ciò con l’IA. Nessuno sa come ragiona o decide, né può spiegarsi. Puoi tenere conto del motore AI, ma non gli importerà.

Conclusione

L’utilizzo dell’intelligenza artificiale sta crescendo così rapidamente che i decisori rischiano di essere colti alla sprovvista e di fronte al fatto compiuto. ChatGPT e l’apprendimento automatico supervisionato dall’intelligenza artificiale sono già utilizzati dai banchieri centrali junior per il lavoro politico.

Invece di guidare l’adozione dell’IA prima che diventi troppo diffusa, le banche centrali rischiano di essere costrette a rispondere all’IA che è già in uso. Sebbene si possa affermare che l’intelligenza artificiale non sarà mai utilizzata per determinati lavori, la storia mostra che l’uso di tale tecnologia si avvicina di soppiatto a noi e i responsabili delle decisioni senior potrebbero essere gli ultimi a saperlo.

L’intelligenza artificiale promette di aiutare in modo significativo le banche centrali assistendole con il crescente numero di compiti che incontrano, consentendo loro di indirizzare risorse limitate in modo più efficiente ed eseguire il proprio lavoro in modo più solido. Cambierà sia l’organizzazione che ciò che sarà richiesto ai dipendenti. Anche se la maggior parte dei banchieri centrali potrebbe non diventare esperta di intelligenza artificiale, probabilmente avranno bisogno di “parlare” di intelligenza artificiale — conoscerla bene — e sentirsi a proprio agio nel ricevere indicazioni e gestire i motori di intelligenza artificiale.

I decisori più anziani devono quindi sia apprezzare in che modo i consigli sull’IA differiscono da quelli prodotti dagli specialisti umani, sia modellare le proprie politiche sulle risorse umane e la struttura organizzativa per consentire l’uso più efficiente dell’IA senza che essa minacci la missione dell’organizzazione.

Riferimenti

Danielsson, J, R Macrae e A Uthemann (2020), ” Artificial intelligence as a central banker “, VoxEU.org, 6 mar.

Danielsson, J, R Macrae e A Uthemann (2022), “A rtificial intelligence and systemic risk ”, Journal of Banking and Finance 140, 106290.

Noy, S e W Zhang (2023), “ Gli effetti sulla produttività dell’intelligenza artificiale generativa ”, VoxEU.org, 7 giugno.

Ilzetzki, E e S Jain (2023), “ L’impatto dell’intelligenza artificiale sulla crescita e l’occupazione ”, VoxEUorg, 20 giugno.

____________________

Autore: Jon Danielson. Direttore, Systemic Risk Centre London School of Economics and Political Science. Originariamente pubblicato su VoxEU.


https://www.asterios.it/catalogo/permacrisis-e-tardo-capitalismo