Servaas Storm offre una fantastica visione ampia e molto seria sulla mania dell’IA/mercato azionario e sulle fin troppe ragioni per cui i giocatori statunitensi non riescono a soddisfare le aspettative.
Yves Smith
Per questo Natale regala un libro di grande valore!
Tre anni fa, il 30 novembre 2022, ChatGPT è stato rilasciato al pubblico. Questo Large Language Model (LLM) era una novità assoluta, uno strumento di intelligenza artificiale che sembrava in grado di fare cose che nessuno credeva possibili. Entro cinque giorni dal lancio, oltre un milione di utenti si erano iscritti per chattare con il bot di intelligenza artificiale, un tasso di crescita 30 volte superiore a quello di Instagram e 6 volte superiore a quello di TikTok all’inizio. È diventato il prodotto di consumo in più rapida crescita nella storia, registrando oltre 800 milioni di utenti settimanali nell’ottobre 2025. OpenAI, la startup che ha sviluppato ChatGPT e che ha iniziato come organizzazione no-profit nel 2015, è diventata un nome familiare quasi da un giorno all’altro, ed è ora valutata 500 miliardi di dollari o addirittura 1 trilione di dollari (per un’offerta pubblica iniziale). Cavalcando l’onda dell’LLM, Nvidia, produttrice di circa il 94% delle GPU necessarie al settore dell’intelligenza artificiale, ha raggiunto, come prima società pubblica in assoluto, una capitalizzazione di mercato di 5 trilioni di dollari il 29 ottobre 2025, rispetto ai soli 0,4 trilioni di dollari del 2022. Nvidia ha attualmente un peso di circa l’8,5% nell’indice S&P 500, mentre i cosiddetti “Magnifici 7” (Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia e Tesla) hanno un peso complessivo nell’indice S&P 500 di circa il 37%.
Gli investimenti in data center da parte di un gruppo concentrato di hyper-scaler nel settore dell’intelligenza artificiale americano costituiscono la principale fonte di crescita in un’economia statunitense altrimenti sclerotizzata. Gli Stati Uniti stanno scommettendo sul raggiungimento dell’Intelligenza Artificiale Generale (AGI), costruendo infrastrutture di calcolo sempre più grandi per gestire e testare i loro LLM, utilizzando più GPU, più energia, più acqua di raffreddamento e più dati che mai.
Ma tre anni dopo il lancio di ChatGPT, in molti ambienti si sta diffondendo il timore che la scommessa sulla scalabilità degli LLM per raggiungere l’AGI stia fallendo. Il boom dell’IA, sussurrano in molti, potrebbe essere una bolla. L’amministrazione Trump e l’industria dell’IA stanno mostrando segni di nervosismo. In una recente conferenza tecnologica del Wall Street Journal , Sarah Friar, Chief Financial Officer di OpenAI, ha suggerito che potrebbe essere necessaria una garanzia sui prestiti governativi per finanziare gli enormi investimenti necessari a mantenere l’azienda all’avanguardia. Il suo messaggio in codice era che OpenAI è diventata TBTF (Tot To Tout To Tout). Il messaggio è stato recepito. David Sacks, zar dell’IA e delle criptovalute del presidente Trump, ha affermato (in risposta) che un’inversione di tendenza negli investimenti legati all’IA rischierebbe una recessione. “Non possiamo permetterci di tornare indietro”, ha aggiunto, a dimostrazione del sostegno alla richiesta di Friar. (In seguito ha chiarito di essere ancora contrario a qualsiasi salvataggio di singole aziende nel settore dell’IA.)
La storia fa rima, o questa volta è diverso?
Il mercato azionario statunitense è decisamente saldamente in territorio di bolla. La Figura 1 presenta i dati sul rapporto prezzo/utili di Shiller dell’S&P 500, calcolato come la media degli utili al netto dell’inflazione degli ultimi 10 anni. Storicamente, un rapporto prezzo/utili di Shiller superiore a 30 è stato foriero di eccessi speculativi, seguito da un mercato ribassista. Nel dicembre 2023, l’indice Shiller è salito a 30,45 e da allora è rimasto sopra 30; nel novembre 2025, il rapporto prezzo/utili di Shiller ha superato 40.
Dal 1871, questo è solo il sesto caso in cui il CAPE Ratio ha superato quota 30. La prima volta accadde tra agosto e settembre del 1929 e sappiamo tutti cosa accadde dopo: il Dow Jones Industrial Average perse l’89% del suo valore. La seconda volta accadde quasi sette decenni dopo: durante la bolla delle dot-com di fine millennio, quando il rapporto prezzo/utili di Shiller registrò un massimo storico di 44,19 nel dicembre 1999. Dopo lo scoppio della bolla delle dot-com, l’S&P 500 perse il 49% del suo valore massimo.
I successivi tre picchi superiori a 30 nel rapporto prezzo/utili di Shiller si sono verificati molto di recente: tra settembre 2017 e novembre 2018; tra dicembre 2019 e febbraio 2020; e tra agosto 2020 e maggio 2022. In seguito a queste impennate, l’S&P 500 ha infine perso tra il 20% e il 33% . Attualmente stiamo vivendo il sesto periodo di eccesso speculativo.
Tuttavia, la festa dell’intelligenza artificiale è ancora in pieno svolgimento. Le aziende di intelligenza artificiale stanno correndo per costruire infrastrutture di data center per quella che ritengono essere una domanda virtualmente illimitata di servizi di intelligenza artificiale. Le spese in conto capitale per infrastrutture di data center da parte di Amazon, Alphabet, Meta e Microsoft sono in forte aumento (anche in percentuale sul fatturato) ( Figura 2 ).
JP Morgan Chase & Co prevede che 122 GW di capacità di data center saranno costruiti tra il 2026 e il 2030 per soddisfare la domanda (probabilmente) astronomica di “calcolo” (Wigglesworth 2025a). Si stima che i 122 GW aggiuntivi di capacità di data center costeranno tra i 5 e i 7 trilioni di dollari. Per il 2026, il fabbisogno di finanziamento previsto per i data center sarà di circa 700 miliardi di dollari, che, secondo il rapporto, potrebbero probabilmente essere interamente finanziati dai flussi di cassa degli hyper-scaler e dai mercati obbligazionari di alta qualità. “Tuttavia, il fabbisogno di finanziamento per il 2030 supera gli 1,4 trilioni di dollari, superando le attuali capacità di mercato, rendendo necessaria la ricerca di fonti di finanziamento alternative”.
Fonte: Christopher Mims (2025) , “Quando l’hype dell’IA incontra la realtà dell’IA: un bilancio in 6 grafici”. Wall Street Journal, 14 novembre.
Fondamentalmente, la maggior parte dei mega-accordi di finanziamento sono notevolmente circolari . Per darvi un’idea: Nvidia investe in OpenAI e OpenAI sta cercando di acquistare milioni di chip specializzati di Nvidia. OpenAI acquista potenza di calcolo da Oracle, che a sua volta acquista le GPU di Nvidia. Nvidia possiede circa il 5% di CoreWeave e vende chip a CoreWeave. Il principale cliente di CoreWeave è Microsoft, che investirà in OpenAI, condividerà i ricavi con OpenAI, acquisterà chip da Nvidia e avrà partnership con AMD. AMD, rivale di Nvidia, era così ansiosa di acquisire OpenAI come cliente che ha emesso warrant per l’acquisto del 10% di AMD da parte di OpenAI a un centesimo per azione. OpenAI è cliente di CoreWeave e anche azionista. Nvidia ha investito in xAI e le fornirà i processori. E così via. Gli accordi includono la condivisione dei ricavi tra le diverse piattaforme e la proprietà incrociata.
Nulla in questi accordi circolari è trasparente. Non è chiaro da dove provengano i fondi necessari per questi accordi. Non è chiaro cosa implichino queste opache transazioni circolari per le valutazioni delle aziende di intelligenza artificiale quotate e non quotate coinvolte. Non è chiaro cosa significhi tutto questo per la concorrenza sull’hardware tra i produttori di chip (Nvidia contro AMD) e sui servizi di intelligenza artificiale tra le startup di intelligenza artificiale (OpenAI contro Anthropic contro xAI contro Microsoft). Non sorprende, quindi, che questi astronomici accordi di finanziamento circolare (che si riferiscono a miliardi di dollari USA) stiano suscitando perplessità. Per molti osservatori, riportano alla mente ricordi traumatici degli accordi di finanziamento circolare della fine degli anni ’90, quando fornitori e clienti rafforzavano reciprocamente le valutazioni delle azioni dotcom senza generare alcun valore reale.
AI: scoppio o bolla?
I leader del settore dell’intelligenza artificiale sono ora impegnati a ribadire che la rivoluzione dell’intelligenza artificiale NON È UNA BOLLA, ma reale e sostenibile. Il CEO di Nvidia, Jensen Huang, ha dichiarato (in una conferenza call sui risultati finanziari del 19 novembre) che non esiste una bolla di intelligenza artificiale e che la crescita esponenziale della domanda di intelligenza artificiale è strutturale piuttosto che speculativa. Huang sostiene che il boom dell’intelligenza artificiale costituisca un Big Bang, una rivoluzione storica, a causa di tre cambiamenti fondamentali verso l’elaborazione accelerata: il passaggio dalle CPU alle GPU (che possono elaborare simultaneamente più attività e soluzioni), l’ascesa dell’intelligenza artificiale generativa e l’emergere di sistemi di intelligenza artificiale agentica che presumibilmente possono prendere decisioni in modo indipendente sulla base di grandi set di dati. La società di gestione patrimoniale Blackrock concorda : “L’intelligenza artificiale non è solo una tendenza tecnologica; rappresenta una trasformazione infrastrutturale con una crescente importanza macroeconomica”, aggiungendo che “a differenza della frenesia speculativa della fine degli anni ’90 e dei primi anni 2000, i leader tecnologici di oggi sono ancorati a una stabilità fondamentale”. Le vibrazioni ottimistiche attorno al potere trasformativo dell’intelligenza artificiale hanno contagiato persino Nouriel Roubini (2025) , l’eterno Dr. Doom della professione e ora stratega economico senior presso Hudson Bay Capital, che in qualche modo si è convinto che i venti favorevoli del boom senza precedenti degli investimenti nei data center basati sull’intelligenza artificiale supereranno qualsiasi interruzione derivante dai dazi di Trump e dalle tensioni geopolitiche.
Ma le varie dichiarazioni di Huang, Blackrock e Roubini sono “urli e furie, che non significano nulla”. La domanda strutturale per le GPU di Nvidia proviene dalla stessa cerchia di aziende che stanno scommettendo sulla scalabilità dell’intelligenza artificiale. I data center dedicati all’intelligenza artificiale potrebbero non essere le “pale della corsa all’oro dell’intelligenza artificiale”, ma piuttosto un buco nero in cui scompaiono miliardi di dollari .
L’impennata della domanda di GPU e infrastrutture per data center potrebbe, in altre parole, essere un’ipotesi speculativa, se si scoprisse che i modelli di intelligenza artificiale non offrono un buon rapporto qualità-prezzo agli investitori e non riescono a soddisfare le esagerate aspettative dei Signori dell’Anello dell’IA. Ogni lettore di Kindleberger e Galbraith sa che questa non sarebbe la prima volta nella storia (economica) che la maggior parte delle persone – tutte nella stessa bolla – si sbaglia completamente, tutte allo stesso tempo. La crisi finanziaria del 2008 è solo l’esempio più recente di una mania collettiva sfociata in un crollo.
La corsa all’intelligenza artificiale si basa principalmente sulla paura irrazionale di perdersi qualcosa (FOMO), nella Silicon Valley e a Wall Street, che induce una mentalità da gregge a seguire lo ‘slancio’, un completo disprezzo per i valori fondamentali a favore di un’importanza esagerata alla disponibilità limitata di una risorsa chiave (in questo caso: le GPU e il ‘compute’ di Nvidia) e un schiacciante bias di conferma (l’inclinazione fin troppo umana a cercare informazioni che confermino la nostra visione distorta). Per chiarire il punto: è stato scoperto che l’uso di ChatGPT riduce la diversità di idee nel brainstorming, come riportato da un articolo su Nature .
È profondamente ironico che l’industria che dovrebbe costruire la “superintelligenza”, un concetto profondamente imperfetto con origini piuttosto sinistre (vedi Emily M. Bender e Alex Hanna 2025 ), sia essa stessa profondamente irrazionale . Ma solide prove antropologiche sulle tribù locali che vivono nella Silicon Valley e lavorano a Wall Street mostrano che questa irrazionalità è radicata nella psiche perma-adolescente degli abitanti, che sono soliti parlare tra loro dell’imminente Apocalisse dell’IA, credono quasi religiosamente nelle profezie dell’IA, hanno una profonda fede nei loro algoritmi, considerano l’IA un “essere senziente” superiore bisognoso di rappresentanza legale, si impegnano con entusiasmo nella tecno-escatologia e, soprattutto, sono profondamente appassionati degli Hobbit e del Signore degli Anelli. Queste stesse persone sono anche abituate a parlare e pensare in termini di miliardi di dollari come semplice “roba” che finanzia l’elaborazione, necessaria per la scalabilità al fine di raggiungere l’AGI. “Non mi interessa se bruciamo 50 miliardi di dollari all’anno, stiamo costruendo l’AGI”, ha detto Sam Altman , aggiungendo: “Stiamo realizzando l’AGI, e sarà costoso, ma ne varrà assolutamente la pena”. Lo stesso Sam Altman ha perso la calma durante un’intervista con il podcaster e investitore di OpenAI Brad Gerstner, quando gli è stato chiesto come si suppone che il tutto si aggiunga, visti i ricavi minuscoli di OpenAI. “Se vuoi vendere le tue azioni, ti troverò un acquirente”, ha risposto bruscamente Altman, colto alla sprovvista. “Basta così”.
Ci sono altri segnali di irrazionalità nel settore dell’intelligenza artificiale. Nei primi sei mesi del 2025, le startup di intelligenza artificiale che non hanno profitti , vendite, presentazione e prodotto degno di nota, si sono assicurate miliardi di dollari di finanziamenti. Ad esempio, l’azienda di intelligenza artificiale pre-ricavi e pre-prodotto ” Safe Superintelligence “, fondata da Ilya Sutskever, ex capo scienziato di OpenAI, ha raccolto 2 miliardi di dollari con una valutazione di 32 miliardi di dollari nell’aprile 2025. Allo stesso modo, ” Thinking Machines Lab “, un’azienda di ricerca e sviluppo di prodotti di intelligenza artificiale lanciata dall’ex direttore tecnico di OpenAI, Mira Murati, ha raccolto 2 miliardi di dollari con una valutazione di 12 miliardi di dollari da investitori come Nvidia, AMD e Cisco nel luglio 2025. L’azienda non ha rilasciato un prodotto, non ha clienti e si è persino rifiutata di dire agli investitori cosa sta cercando di costruire. “È stato l’incontro di presentazione più assurdo”, ha detto un investitore che ha incontrato Murati . “Lei mi ha risposto: ‘Allora stiamo creando un’azienda di intelligenza artificiale con i migliori esperti di intelligenza artificiale, ma non possiamo rispondere a nessuna domanda’”.
I migliori esperti di intelligenza artificiale sono al comando, o almeno così ci dicono. Una manciata di laboratori, guidati da tecnici tolkieniani, controlla la narrativa sui LLM di frontiera. La narrativa che raccontano al pubblico è che hanno una missione: costruire un’intelligenza artificiale generale a beneficio di tutta l’umanità, ma questa superintelligenza autonoma emergente è così complessa e potenzialmente pericolosa, persino apocalittica. Jared Kaplan, capo scienziato di Anthropic , è solo l’ultimo di una lunga serie di esperti di intelligenza artificiale che lanciano l’allarme; o si consideri Geoffrey Hinton che prevede, ancora una volta, il collasso totale della società una volta che l’intelligenza artificiale diventerà più intelligente delle persone. Le affermazioni esagerate suonano più o meno così:
“Diventerebbe impossibile per gli umani essere pagati per lavorare perché la superintelligenza potrebbe farlo meglio e a un prezzo più basso. Tu ed io non avremmo un lavoro. Nessuno avrebbe un lavoro”.
Il messaggio è chiaro: raggiungere l’intelligenza artificiale generale è una cosa molto seria e potenzialmente pericolosa. Ma state tranquilli: gli sviluppatori di intelligenza artificiale possono gestire questi rischi in sicurezza e hanno le competenze per decidere cosa si intende per “sicuro”. Per raggiungere l’AGI serviranno anche giganteschi data center, terreni, elettricità e acqua (per il raffreddamento), ma non preoccupatevi: i risultati promessi saranno trasformativi e andranno a beneficio di tutti. L’AGI troverà cure per il cancro, scoprirà modi per porre fine alla fame, risolverà la crisi dell’accessibilità economica, darà potere a studenti e lavoratori e, in qualche modo, risolverà anche il cambiamento climatico. Fidatevi di noi, ci dicono. Dateci le risorse di cui abbiamo bisogno per costruire l’AGI.
Ma ciò che dicono ai loro investitori è completamente diverso: stiamo sviluppando una tecnologia che può “fare essenzialmente ciò per cui ci pagherete”, incluso licenziare i lavoratori automatizzando i lavori o trasformandoli in lavoratori autonomi, sottoponendoli al contempo a sorveglianza aziendale. Emily M. Bender e Alex Hanna (2025) raccontano, ad esempio, come la National Eating Disorders Association negli Stati Uniti abbia sostituito i suoi operatori di hotline con un chatbot pochi giorni dopo che i primi avevano votato per la sindacalizzazione. Gli algoritmi di intelligenza artificiale funzionano con successo anche per aiutare i proprietari di immobili a imporre agli inquilini gli affitti più alti possibili. Allo stesso modo, il settore delle assicurazioni sanitarie utilizza l’automazione basata sull’intelligenza artificiale e le tecnologie predittive per negare sistematicamente ai pazienti la copertura delle cure mediche necessarie. L’intelligenza artificiale funziona anche per l’esercito: l’azienda di difesa Anduril costruisce droni autonomi, visori per la realtà virtuale e altre tecnologie basate sull’intelligenza artificiale per l’esercito statunitense. E le società di private equity stanno assumendo esperti di intelligenza artificiale per esaminare le aziende di loro proprietà e valutare come ristrutturarle.
In questo modo, l’industria dell’intelligenza artificiale ha convinto il settore finanziario, le società di piattaforme ricche di liquidità e i ricchi capitalisti di rischio a investire i propri capitali nel finanziamento della formazione e dell’inferenza degli LLM e dell’infrastruttura dei giga-data center, che sta trainando l’attuale boom dell’intelligenza artificiale negli Stati Uniti. In un nuovo Working Paper, sostengo che questo boom di investimenti nei data center basati sull’intelligenza artificiale sia una bolla destinata a scoppiare, probabilmente prima del previsto. Ciò si rivelerà socialmente costoso per l’economia statunitense nel suo complesso, non solo a causa dell’inevitabile correzione, del crollo e della recessione, ma più fondamentalmente, in termini di scarse risorse che sono state e saranno sprecate nei sogni allucinogeni di pochi miliardari tech alla Ayn Rand, che, in piena regola e come già notato sopra, hanno iniziato a coprirsi le spalle implorando i contribuenti per sussidi e garanzie sui prestiti governativi (Cooper 2025). La bolla dell’intelligenza artificiale alla fine scoppierà per i seguenti quattro motivi.
L’illusione del fatturato
Non esiste un mondo in cui l’enorme spesa in infrastrutture per data center (oltre 5 trilioni di dollari nei prossimi cinque anni) darà i suoi frutti; le proiezioni sui ricavi derivanti dall’intelligenza artificiale sono utopiche per i seguenti motivi:
I costi di addestramento dei modelli di intelligenza artificiale e il costo dell’inferenza sono in aumento. È particolarmente doloroso che la domanda di elaborazione stia crescendo più rapidamente dell’efficienza degli strumenti che la generano. Di conseguenza, i costi (operativi) dell’inferenza continuano a crescere più rapidamente dei ricavi delle aziende di intelligenza artificiale. Ciò è dimostrato dall’intelligente lavoro di indagine finanziaria svolto da Ed Zitron sui ricavi trimestrali di OpenAI e sui costi di inferenza . In effetti, il tasso di crescita della domanda di elaborazione dell’intelligenza artificiale (guidato dalla convinzione del settore che maggiore è la scala della potenza di calcolo dell’intelligenza artificiale, migliore sarà il suo output) è più del doppio del tasso della legge di Moore. Di conseguenza, la domanda di GPU da parte del settore dell’intelligenza artificiale è in forte crescita e Nvidia, che detiene una quota di mercato quasi monopolistica del 94% nelle GPU, può applicare prezzi elevati per i chip più recenti o commissioni elevate per il leasing delle GPU alle aziende di intelligenza artificiale.
I costi di inferenza dell’IA stanno aumentando (non diminuendo), sebbene il costo per milione di token dell’inferenza LLM sia diminuito di circa il 98%, passando da 20 dollari per milione di token alla fine del 2022 a circa 0,40 dollari per milione di token nell’agosto 2025 ( Barla 2025 ). Tuttavia, il settore dell’IA utilizza set di dati di training considerevolmente più ampi rispetto a uno o due anni fa e consuma anche più token a causa del test-time computing. Il test-time computing è l’approccio più recente per scalare gli LLM, che consente finestre di contesto più lunghe e suggerimenti più ampi dai modelli. Di conseguenza, una tipica query aziendale nel 2021 utilizzava meno di 220 token; entro il 2025, modelli come GPT-4 Pro e ChatGPT-5 elaborano circa 22.000 token in un singolo scambio basato sul test-time computing. Al ritmo attuale di espansione, i token per query potrebbero aumentare tra 150.000 e 1.500.000 entro il 2030, a seconda della complessità dell’attività. In effetti, con un costo per token in rapida diminuzione e un aumento molto maggiore del consumo di token per parola generata, i costi di inferenza delle applicazioni di intelligenza artificiale sono cresciuti di circa 10 volte negli ultimi due anni (vedi Working Paper). In altre parole, la scalabilità è molto costosa.
La triste verità è che è improbabile che i clienti paghino (abbastanza) per i servizi piuttosto modesti offerti dagli LLM, data l’eventuale sovrabbondanza di servizi LLM. Solo il 5% degli utenti di OpenAI (circa 4 milioni di utenti) attualmente è un abbonamento pagante, con un pagamento di (almeno) 20 dollari al mese. Il 95% degli utenti abituali utilizza il prodotto gratuito e non è convinto del valore dei dispositivi e dei servizi basati sull’intelligenza artificiale. Un ulteriore guadagno derivante dall’utilizzo proviene dagli 1,5 milioni di clienti aziendali che utilizzano ChatGPT. Tuttavia, le aziende hanno la possibilità di utilizzare LLM cinesi molto più economici, come DeepSeek e Alibaba Cloud, che raggiungono livelli di prestazioni paragonabili ai principali modelli di intelligenza artificiale americani e continuano a ridurre i prezzi. Il costo utente per 1 milione di token è di 0,14 dollari per DeepSeek R1 rispetto ai 7,50 dollari per ChatGPT o1. Per illustrare la differenza: un sito web di notizie che utilizza l’intelligenza artificiale per i riassunti automatici degli articoli ed elabora 500 milioni di token al mese, pagherebbe 70 dollari per DeepSeek R1 contro i 3.750 dollari per ChatGPT o1. La differenza di costo è considerevole e impossibile da giustificare in termini di prestazioni superiori dello strumento OpenAI. La concorrenza sui prezzi ridurrà i costi per utente applicati dalle aziende di intelligenza artificiale statunitensi, il che mina fatalmente il loro modello di business. OpenAI ha appena dichiarato “Codice Rosso” , dopo aver perso il 6% dei suoi utenti in una settimana a causa del nuovo modello Gemini-3 di Google. Con qualsiasi ragionevole misura, OpenAI ha sprecato il considerevole vantaggio che un tempo aveva. Se gli investitori decidessero di ritirarsi, sarebbe impossibile mantenere a galla l’attività e la valutazione prevista di OpenAI potrebbe scendere, forse drasticamente, come è successo con WeWork, il cui valore è sceso rapidamente dal picco di 47 miliardi di dollari a quasi la bancarotta. Se OpenAI dovesse crollare, anche il prezzo delle azioni di Nvidia scenderebbe .
Infine, la soddisfazione degli utenti per le prestazioni degli strumenti di intelligenza artificiale è stagnante o addirittura in calo. I clienti aziendali stanno diventando meno entusiasti dei loro strumenti di intelligenza artificiale. Tutti hanno già sentito parlare dello studio del MIT che ha mostrato che solo il 5% delle aziende stava ottenendo un ritorno sull’investimento in intelligenza artificiale generativa . McKinsey (2025) ha appena condotto uno studio e i risultati non sono stati molto diversi. McKinsey (2025) rileva che due terzi delle aziende sono solo nella fase di sperimentazione. Quasi due terzi degli intervistati hanno affermato che le loro organizzazioni non hanno ancora iniziato a scalare l’intelligenza artificiale in tutta l’azienda. E solo circa un’azienda su 18 è quella che la società di consulenza definisce “ad alte prestazioni”, che ha integrato profondamente l’intelligenza artificiale e la vede generare oltre il 5% dei propri guadagni. Il problema è l’integrazione degli strumenti di intelligenza artificiale nei flussi di lavoro e nell’organizzazione. I recenti dati dell’US Census Bureau per dimensione aziendale mostrano che l’adozione dell’intelligenza artificiale è in calo tra le aziende con più di 250 dipendenti. ( Figura 3 ).
Di conseguenza, la maggior parte delle aziende di intelligenza artificiale non riuscirà a realizzare profitti, poiché i prezzi scenderanno (a causa della concorrenza cinese), mentre i costi (di formazione e inferenza) aumenteranno a causa della strategia di ridimensionamento.
Fonte: US Census Bureau, Business Trends and Outlook Survey (BTOS) 2023-2025. Note: L’US Census Bureau conduce un sondaggio bisettimanale su 1,2 milioni di aziende. Alle aziende viene chiesto se hanno utilizzato strumenti di intelligenza artificiale come apprendimento automatico, elaborazione del linguaggio naturale, agenti virtuali o riconoscimento vocale per contribuire alla produzione di beni o servizi nelle ultime due settimane. Si veda Torsten Sløk (2025b), https://www.apolloacademy.com/ai-adoption-rate-trending-down-for-large-companies/
La bomba a orologeria dei prestiti iperscalabili
Non c’è modo in cui il settore dell’intelligenza artificiale possa finanziare le proprie spese in conto capitale con i ricavi degli abbonati a pagamento o con il denaro dei fondi sovrani. Pertanto, le aziende di intelligenza artificiale dovranno ricorrere a prestiti su larga scala da banche e mercati obbligazionari investment grade per finanziare le proprie spese in conto capitale, gettando le basi per la prossima crisi del debito. Questo indebitamento su larga scala creerà una bomba a orologeria nei bilanci delle aziende di intelligenza artificiale, poiché la spesa in conto capitale principale è destinata a GPU e server specializzati che, a causa dell’incessante progresso tecnologico, rischiano di diventare economicamente obsoleti entro due o tre anni.
Nvidia non sta aiutando in questo senso, perché sta costruendo GPU di nuova generazione ogni anno e i prezzi delle GPU sono probabilmente in calo. Le GPU Blackwell di ultima generazione di Nvidia richiedono server completamente nuovi e, se se ne utilizzano molte, un data center completamente nuovo, perché le GPU Blackwell richiedono molta più potenza e raffreddamento. Il tasso di decadimento economico dell’infrastruttura di calcolo dell’IA, quindi, è elevato e i periodi di ammortamento sono corrispondentemente brevi. “Stai investendo in qualcosa che è un bene deperibile”, ha detto l’economista David McWilliams a Fortune , definendo l’hardware dell’IA “lattuga digitale” che “sta per scadere ora”. Server di dati, apparecchiature di rete e dispositivi di archiviazione hanno una vita utile di 3-5 anni e un corrispondente tasso di ammortamento annuo del 20%-30%. Questi chip non sono motori di calcolo generici; sono progettati appositamente per l’addestramento e l’esecuzione di modelli di IA generativa, ottimizzati per le architetture specifiche e gli stack software di alcuni importanti fornitori come Nvidia, Google e Amazon. Questi chip fanno parte di data center AI appositamente progettati, progettati per un’estrema densità di potenza, un sistema di raffreddamento avanzato e una rete specializzata. Insieme, formano un sistema chiuso ottimizzato per la scalabilità, ma difficile da riutilizzare.
La Figura 4 mostra i prestiti per la costruzione di data center dedicati all’intelligenza artificiale. I prestiti investment-grade (IG) delle grandi aziende tecnologiche operanti nel settore dell’intelligenza artificiale nel periodo settembre-ottobre 2025 ammontavano a 75 miliardi di dollari, rispetto ai 32 miliardi di dollari di media annua nel periodo 2015-2024. Le obbligazioni IG emesse dalle aziende operanti nel settore dell’intelligenza artificiale rappresentavano il 14% del mercato obbligazionario IG americano nell’ottobre 2025. Barclays stima che gli investimenti cumulativi legati all’intelligenza artificiale potrebbero raggiungere l’equivalente di oltre il 10% del PIL statunitense entro il 2029, rispetto a circa il 6% nei primi sei mesi del 2025.
OpenAI, Anthropic e altre startup continuano a perdere denaro e devono finanziare la maggior parte dell’investimento pianificato vendendo parti di sé stesse agli investitori e ricorrendo a prestiti su larga scala da banche e mercati obbligazionari investment grade. Ignorando numerosi campanelli d’allarme, in particolare la leva finanziaria e operativa e i brevi periodi di ammortamento, praticamente tutti gli operatori di Wall Street stanno cercando di accaparrarsi una fetta dell’azione, generalmente tramite Special Purpose Vehicle (SPV) fuori bilancio, da banche come JPMorgan Chase e Morgan Stanley a gestori patrimoniali come BlackRock e Apollo Global Management. Questa frenesia di Wall Street getterà con ogni probabilità le basi per la prossima crisi del debito (Fitch 2025).
Fonte: Bank of America Global Research; grafico creato da Lucy Raitano (31 ottobre 2025). Note: IG = investment grade. I dati relativi a Blue Owl e Meta si riferiscono a una holding di tipo project-style creata da Blue Owl Capital per investire in una joint venture su larga scala per la realizzazione di data center Hyperion con Meta.
Crescita esponenziale in un mondo analogico
Sarà impossibile costruire l’infrastruttura di data center prevista nei prossimi cinque anni circa (che è l’orizzonte della maggior parte degli investitori in IA). I tempi di realizzazione necessari per costruire un data center iperscalabile sono attualmente di circa 2 anni, ma si prevede che diventeranno molto più lunghi, diciamo 7 anni o più. Perché? I fornitori a monte della crescita dei data center – le aziende industriali consolidate – devono espandere la produzione. Questi fornitori a monte si troveranno ad affrontare carenze di manodopera, lunghi tempi di attesa per le connessioni alla rete elettrica, colli di bottiglia nei materiali e contraccolpi normativi – e tutto ciò allungherà i tempi di realizzazione necessari per costruire un data center iperscalabile, come spiegato più dettagliatamente nel Working Paper.
FT Alphaville (2025) osserva inoltre che la natura della domanda di energia legata all’intelligenza artificiale è particolarmente problematica (Wigglesworth 2025a). Cita un recente rapporto di Nvidia (2025) :
A differenza di un data center tradizionale che esegue migliaia di attività non correlate, una fabbrica di intelligenza artificiale opera come un unico sistema sincrono. Durante l’addestramento di un modello di linguaggio di grandi dimensioni (LLM), migliaia di GPU eseguono cicli di elaborazione intensiva, seguiti da periodi di scambio di dati, all’unisono quasi perfetto. Questo crea un profilo di potenza a livello di struttura caratterizzato da oscillazioni di carico rapide e massicce. Questa sfida di volatilità è stata documentata in una ricerca congiunta di NVIDIA, Microsoft e OpenAI sulla stabilizzazione della potenza per i data center di addestramento dell’intelligenza artificiale. La ricerca mostra come i carichi di lavoro sincronizzati delle GPU possano causare oscillazioni su scala di rete. Il consumo energetico di un rack può oscillare da uno stato “inattivo” di circa il 30% al 100% di utilizzo e viceversa in millisecondi. Questo costringe gli ingegneri a sovradimensionare i componenti per gestire la corrente di picco, non quella media, aumentando i costi e l’ingombro. Se aggregate in un’intera data hall, queste oscillazioni volatili – che rappresentano centinaia di megawatt che aumentano e diminuiscono in pochi secondi – rappresentano una minaccia significativa per la stabilità della rete elettrica, rendendo l’interconnessione di rete un collo di bottiglia primario. per la scalabilità dell’IA.”
La scalabilità dell’intelligenza artificiale sta incontrando un muro
La scommessa strategica delle principali aziende di intelligenza artificiale, secondo cui l’intelligenza artificiale generativa può essere realizzata costruendo sempre più data center e utilizzando sempre più chip, sta già fallendo. Questa strategia di scalabilità sta già mostrando rendimenti decrescenti. È una strategia sbagliata, poiché gli LLM generici non sono costruiti su modelli globali adeguati e robusti, ma sono invece progettati per autocompletarsi, basandosi su un sofisticato pattern-matching ( Shojaee et al. 2025). Gli LLM continueranno a commettere errori e ad avere allucinazioni, soprattutto se utilizzati al di fuori dei loro dati di training. I prodotti di intelligenza artificiale generici non funzioneranno mai correttamente e continueranno a essere inaffidabili.
A tre anni dall’inizio dell’ondata LLM, l’esperto di intelligenza artificiale Gary Marcus spiega molto chiaramente perché ChatGPT non ha soddisfatto le aspettative: “I risultati sono deludenti perché la tecnologia di base è inaffidabile. E questo è stato ovvio fin dall’inizio”. Gli LLM generici sono difficili da controllare; non riescono ancora a ragionare in modo affidabile e non lo faranno mai; non funzionano ancora in modo affidabile con strumenti esterni; continuano ad avere allucinazioni; non riescono ancora a eguagliare modelli specifici di dominio, continuano a lottare con l’allineamento tra ciò che gli esseri umani vogliono e ciò che le macchine effettivamente fanno. “La verità è che ChatGPT non è mai cresciuto”, conclude Marcus .
Marcus presenta anche una nuova, inquietante ricerca sulle prestazioni degli LLM di frontiera in tre benchmark condotti dal professore della CMU Niloofar Mireshgalleh . Il primo benchmark è un test di matematica a cui si potrebbe plausibilmente rispondere con grandi quantità di dati. Non sorprende che gli LLM di frontiera offrano prestazioni sempre migliori, ma, come abbiamo visto, a scapito di enormi volumi di elaborazione. Nel secondo benchmark (incentrato sulla codifica), i progressi iniziali in termini di prestazioni stanno ora diminuendo, mostrando rendimenti decrescenti. Tuttavia, come spiega Marcus, nel terzo benchmark, “su un compito complesso che combina teoria della mente e privacy che sembra più difficile da manipolare”, gli LLM di frontiera mostrano un progresso lineare lento , ancora una volta, al costo di miliardi di dollari e di enormi quantità di elettricità e acqua. In sintesi, i progressi in termini di prestazioni su compiti complessi sono semplicemente terribilmente lenti, il che è il fattore chiave che spiega la delusione degli utenti degli LLM e i limiti di un’adozione redditizia da parte delle aziende.
Gli LLM sono eccellenti nel generare output plausibili, ma sono molto meno bravi a ricostruire i fatti, e sono incapaci di ragionamento. La tendenza innata alle allucinazioni (Metz e Weise 2025) limita l’utilità dell’IA in attività ad alto rischio come sanità, istruzione e finanza. Le potenziali responsabilità derivanti dai danni causati dalle decisioni di strumenti di IA autonomi e non supervisionati sono semplicemente troppo grandi in queste attività ad alto rischio, e questo limiterà l’adozione e l’affidamento a tali strumenti di IA. Più in generale, dobbiamo pensare agli LLM, come suggeriscono Bender e Hanna (2025) , come “macchine per l’estrusione di testo sintetico”. “Come un processo industriale di plastica”, spiegano, i database di testo “sono forzati attraverso macchinari complicati per produrre un prodotto che sembra linguaggio comunicativo, ma senza alcuna intenzione o mente pensante dietro”. Lo stesso vale per altri modelli di IA “generativa” che sputano immagini e musica. Sono tutti, affermano gli autori, “macchine multimediali sintetiche” – o gigantesche macchine del plagio. “Sia i modelli linguistici che i modelli di conversione testo-immagine plageranno completamente i loro input”, scrivono gli autori. Una gran parte dell’output sarà spazzatura di intelligenza artificiale.
Per ironia della sorte, l’offerta di IA-slop non farà che aumentare in futuro, perché a causa della mancanza di “dati di addestramento autentici” , gli LLM aumenteranno il loro input di dati artificiali “sintetici” generati dall’IA – un incredibile atto di auto-avvelenamento . Più IA-slop questi modelli assimilano, maggiore è la probabilità che i loro output siano spazzatura: il principio “garbage-in, garbage-out” (GIGO) è valido. I sistemi di IA, che vengono addestrati sui propri output, perdono gradualmente accuratezza, diversità e affidabilità. Ciò si verifica perché gli errori si accumulano nelle successive generazioni di modelli, portando a distribuzioni di dati distorte e difetti irreversibili nelle prestazioni. Il veterano editorialista tecnologico Steven Vaughn-Nichols avverte che “investiremo sempre di più nell’IA, fino al punto in cui il collasso del modello colpirà duramente e le risposte dell’IA saranno così scadenti che persino un CEO con il cervello morto non potrà ignorarlo”.
Conclusione
Per queste quattro ragioni, la strategia di “scalabilità” dell’IA fallirà e la bolla degli investimenti nei data center basati sull’IA scoppierà. L’inevitabile crollo dei data center basati sull’IA negli Stati Uniti sarà doloroso per l’economia, anche se alcune tecnologie e infrastrutture utili sopravviveranno e saranno produttive nel lungo periodo. Tuttavia, data l’avidità illimitata della piattaforma e di altre grandi aziende tecnologiche, ciò significherà anche che gli strumenti di IA che indeboliscono le condizioni di lavoro – in attività come le arti visive, l’istruzione, la sanità e i media – sopravviveranno. Allo stesso modo, l’IA generativa è già radicata nelle forze armate e nelle agenzie di intelligence e, di sicuro, verrà utilizzata per la sorveglianza e il controllo aziendale. Tutte le grandi promesse del settore dell’IA svaniranno, ma molti usi dannosi della tecnologia rimarranno.
Il danno economico immediato sembrerà piuttosto insignificante rispetto al danno a lungo termine della mania dell’IA. La continua sovrabbondanza di IA spazzatura, allucinazioni inventate da LLM, fake news e propaganda clickbait, immagini deepfake deliberate e un’infinità di spazzatura artificiale, il tutto prodotto sotto la bandiera del progresso e dell’avidità del capitalismo, che consuma enormi quantità di energia e sputa tonnellate di emissioni di carbonio, minerà ulteriormente e autoavvelenerà la fiducia e le fondamenta dell’ordine economico e sociale americano. Gli enormi costi diretti e indiretti degli LLM generici supereranno di gran lunga i benefici piuttosto limitati.
In un’epoca che corre verso l’artificializzazione totalitaria del mondo, Luciano Boi e Stefano Isola pongono la domanda essenziale: quale sarà il posto dell’uomo nella società futura? La direzione dei mutamenti in atto sta conducendo, infatti, verso una crescente marginalizzazione del contributo umano dagli accadimenti significativi dell’esistenza, esiliando l’uomo nel “regno dell’insignificanza”, alla periferia di un universo rifondato sull’imperio degli algoritmi, sul “non pensiero” dell’intelligenza artificiale, sulla volontà di potenza di macchine che simulano intenzioni e decisioni umane, rovesciando il principio di utilità della tecnica in quello di utilità per la tecnica.
Il “regno dell’insignificanza” è quello dove i corpi sono sostituiti dai profili; le relazioni dalle connessioni; la comunità dalla community; la città dalla smart city; la politica dalla governance; la scuola dall’eduverso; il linguaggio dal messaggio; le professioni dai robot.
In pagine di grande intensità gli autori, scienziati e filosofi, squarciano il velo del pensiero unico per smascherare i nuovi meccanismi di assoggettamento che si celano dietro la narrativa scientista e la deriva tecnofila, alzando la voce della coscienza critica per la tutela dell’identità, della dignità e della libertà umana. A rischio, oramai, è la stessa ontologia degli esseri umani, oggetto essa stessa di un progetto di manipolazione sempre più invasivo.
Questo sito installa cookie e altri strumenti di tracciamento:
• tecnici necessari per il funzionamento del sito, per l'utilizzo non serve il tuo consenso;
• profilazione, anche di terza parte, necessari per offrirti servizi in linea con i tuoi interessi, per l'utilizzo serve il tuo consenso.
Cliccando “Accetta tutto” acconsenti all'utilizzo di tutti i cookie. Cliccando “Preferenze” potrai configurare le tue scelte. Cliccando "Chiudi" verranno installati solo i cookie tecnici.
Per saperne di più consulta la nostra Informativa Cookie
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Durata
Descrizione
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.