♦ Il passaggio dell’intelligenza artificiale dalle CPU alle GPU ad altissima densità di potenza ha creato un’impennata strutturale della domanda di elettricità che sta superando i guadagni di efficienza e sta sovraccaricando la rete.
♦ La necessità di un’energia di base 24 ore su 24, 7 giorni su 7 sta ritardando il ritiro del carbone, incrementando il gas naturale e spostando la crescita dei data center verso regioni con terreni a basso costo, normative deboli e comunità vulnerabili.
♦ La carenza globale di trasformatori, i vincoli minerari e i colli di bottiglia delle interconnessioni fanno sì che l’informatica, e non il petrolio, possa diventare la prossima risorsa strategica di cui le nazioni faranno tesoro.
“The Cloud” potrebbe essere il più grande trucco di branding della storia. Suona soffice, etereo e particolarmente leggero. Implica che le nostre vite digitali… le nostre email, i nostri portafogli crittografici, il nostro scorrimento infinito… esistano in uno strato vaporoso dell’atmosfera, staccati dai vincoli terreni.
Ma se vi recate nella contea di Loudoun, in Virginia, o ammirate le aride pianure di Altoona, in Iowa, vi rendete conto che la Nuvola è in realtà solo una fabbrica molto grande, molto rumorosa e molto calda.
Ci stavamo raccontando una bella storia sulla transizione energetica . Stavamo dismettendo le centrali a carbone, costruendo parchi eolici e disaccoppiando la crescita economica dalle emissioni di carbonio. Tutto stava andando secondo i piani.
Per anni, il settore tecnologico ha raggiunto un relativo disaccoppiamento…
La legge di Moore ha mantenuto i miglioramenti dell’efficienza dei server in anticipo, consentendo al traffico Internet di aumentare mentre la domanda di energia cresceva lentamente.
La curva esponenziale dell’intelligenza artificiale, tuttavia, ha infranto questo delicato equilibrio. I carichi di lavoro dell’intelligenza artificiale sono così intensivi in termini di elaborazione che la domanda sta ora aumentando vertiginosamente, più velocemente di quanto i guadagni di efficienza possano compensare.
Si tratta di un riavvicinamento con la fisica… e la narrazione che definirà il prossimo decennio non sarà più incentrata sull’offerta.
Ora si tratta di un cambiamento strutturale della domanda che quasi nessuno aveva considerato: la termodinamica dell’intelligenza artificiale.
Secondo l’Agenzia Internazionale per l’Energia (IEA), si prevede che la domanda globale di elettricità da parte dei data center raddoppierà entro il 2030. Questa cifra equivale all’intero consumo annuo di elettricità di un Paese come il Giappone.
La mano invisibile sta colpendo un muro di cemento.
La domanda non è più se la rete sia in grado di gestirla, ma cosa fa sì che la curva di domanda assomigli a un lancio di razzo. La risposta non è un software migliore o algoritmi più intelligenti; è la fisica grezza che avviene all’interno di un rack* che ora richiede la potenza di un isolato.
*Un rack (pl. racks, in inglese «scaffale», o più propriamente «rastrelliera») in informatica e telecomunicazioni (ma anche nell’ambiente del broadcast e degli studi di registrazione) è un sistema standard di installazione fisica di componenti hardware (es. server, switch, router) a scaffale, costituito da una struttura modulare larga 19 pollici (482,6 mm), alta 1,75 pollici (44,45 mm) per ogni unità ospitata e lunghezza variabile, solitamente maggiore di 600mm. Il numero di unità di un rack è anch’esso variabile: le dimensioni comuni sono da 12, 25 e 42 unità. Ogni rack da 42 può essere suddiviso in 3 shelf (14 unità l’uno), con accesso separato.
La termodinamica del “pensiero”
Per capire perché la rete è in difficoltà in questo momento, bisogna guardare al silicio.
Per molto tempo, Internet è stato gestito dalle CPU (Unità di Elaborazione Centrale). Sono le centraline del mondo dei chip. Efficienti e prevedibili.
Ma l’IA generativa non vuole un manager. Vuole un battaglione di matematici. Funziona su GPU (Graphics Processing Unit), in particolare su mostri come l’H100 di Nvidia.
Ecco cosa significa in realtà in termini di consumo energetico:
- Rack per server tradizionale: assorbe circa 5-10 kilowatt (kW).
- Rack AI moderno (H100/Blackwell): assorbe da 50 a 100 kW.
Siamo passati di fatto dall’alimentare un tostapane all’alimentare un quartiere, tutto all’interno della stessa scatola di metallo. Il raffreddamento ad aria… le ventole che soffiano sul metallo caldo… non funzionano più. L’aria non è fisicamente abbastanza densa da dissipare tutto quel calore.
Ora stiamo configurando i data center come se fossero raffinerie chimiche, collegando circuiti di refrigerante liquido direttamente alla matrice di silicio.
Questa è la nuova realtà del raffreddamento Direct-to-Chip (DTC) . È già in atto nei centri di intelligenza artificiale all’avanguardia perché è l’unico modo per gestire l’estrema densità termica di chip come l’H100.
Il raffreddamento a liquido consente di risparmiare energia rispetto all’aria condizionata. Sebbene il chip stesso consumi comunque 100 kW, l’intero sistema di raffreddamento (pompe e refrigeratori) consuma molta meno energia rispetto a un sistema di trattamento dell’aria di grandi dimensioni per l’intera stanza. Questo lo rende una misura di efficienza nata per necessità.
Il passo successivo è il raffreddamento a immersione , in cui interi rack di server vengono immersi in un fluido non conduttivo. Anche questa soluzione è in fase di implementazione, spesso in programmi pilota e strutture specializzate.
Questo passaggio dai ventilatori agli impianti idraulici specializzati e ai fluidi chimicamente inerti è la realizzazione fisica dell’industrializzazione del pensiero.
Proprio come l’industrializzazione del tessile o dell’acciaio, richiede ingenti apporti di energia grezza e materiali esotici e speciali. Questa intensità industriale richiede qualcosa che le fonti rinnovabili tradizionali – solare ed eolico intermittenti – faticano a fornire: l’affidabilità.
Quando un ciclo di addestramento dell’intelligenza artificiale costa decine di milioni di dollari, un sfarfallio dell’1% rappresenta una minaccia esistenziale.
Il segreto sporco del boom dell’intelligenza artificiale “verde”
Tutti i principali CEO del settore tecnologico sono attualmente impegnati in un tour di podcast per parlare dei loro obiettivi “Net Zero” entro il 2030. E certo, stanno acquistando un sacco di crediti cartacei.
Ma alla fisica non importa delle compensazioni di carbonio. La realtà è che l’intelligenza artificiale ha bisogno di potenza di base. Deve funzionare 24 ore su 24, 7 giorni su 7, 365 giorni all’anno con un’affidabilità del 99,999%.
Sai cosa lo garantisce?
Nucleare (la cui costruzione richiede 10 anni).
Batterie (di cui non abbiamo abbastanza).
Combustibili fossili.
Secondo i dati dell’IEA , il carbone rappresenta ancora circa il 30% dell’energia elettrica dei data center globali. E negli Stati Uniti, il gas naturale fa la parte del leone, coprendo oltre il 40% della domanda.
L’ironia è palpabile. Abbiamo speso miliardi nel tentativo di eliminare il carbone, solo per vedere la tecnologia più futuristica del mondo, l’intelligenza artificiale, gettargli un’ancora di salvezza.
In luoghi come la Virginia o il Kansas, le aziende di servizi pubblici stanno ritardando la dismissione delle centrali a carbone. Semplicemente non possono rischiare l’instabilità della rete quando un data center da un gigawatt entra in funzione.
Il “futuro” è alimentato dal “passato”.
La necessità di questa affidabile energia di base, unita alla richiesta di gigawatt di queste nuove strutture, sta ora ridisegnando radicalmente il panorama energetico americano. I capitali fluiscono sempre verso la via di minor resistenza e, in questo momento, questa via attraversa comunità che non hanno mai visto un solo dollaro di prosperità tecnologica.
La nuova geografia del potere (e della disuguaglianza)
Questa fame di energia sta ridisegnando la mappa. Stiamo assistendo a una geografia delle infrastrutture a forma di “K”.
Negli Stati Uniti, il ” Data Center Alley ” nella Virginia settentrionale dovrebbe gestire il 70% del traffico internet mondiale. Ma la rete lì è sfruttata. Non è possibile ottenere un nuovo collegamento per anni.
Quindi, la capitale si sta spostando verso luoghi con normative più flessibili e terreni più economici: Texas, Ohio, Arizona.
Ma questo ci porta al punto di frizione. Queste strutture sono vicine. E spesso sono dei cattivi vicini. Sono rumorose, consumano enormi quantità d’acqua per il raffreddamento e aumentano le tariffe dei servizi pubblici locali.
Anche la componente di giustizia ambientale è significativa. Le infrastrutture industriali sono raramente situate in quartieri benestanti.
Secondo il rapporto “ Fumes Across the Fence-Line ” della NAACP :
Gli afroamericani hanno il 75% di probabilità in più rispetto agli americani bianchi di vivere in comunità “recintate” (aree adiacenti a impianti industriali).
Un numero sproporzionato di centrali elettriche alimentate a combustibili fossili, che entrano in funzione quando i data center raggiungono il limite massimo della rete, si trovano in aree a basso reddito e comunità di colore.
Ciò contribuisce direttamente all’aumento dei tassi di asma e di problemi respiratori.
Mentre la “prosperità invisibile” dei guadagni azionari dell’IA si riversa nei portafogli di San Francisco e New York, il “decadimento visibile”… l’inquinamento, il consumo di acqua, il ronzio delle ventole di raffreddamento… è localizzato in comunità che spesso non vedono alcun vantaggio.
Anche se una comunità fosse disposta a sostenere i costi, la macchina industriale che un tempo alimentava senza problemi la rete elettrica verrebbe soffocata.
Il problema non è più solo dove collocare il data center, ma come collegare fisicamente l’enorme fabbrica ad alto consumo energetico all’infrastruttura di rete esistente. Questo processo è ostacolato da un collo di bottiglia globale di hardware essenziale e non digitale.
La grande carenza di trasformatori
Diciamo che hai i soldi, il terreno e i permessi. Hai ancora un problema: non riesci a procurarti l’attrezzatura.
Un tempo, i tempi di consegna per un trasformatore di potenza ad alta tensione erano di 12 mesi. Oggi? Sono dai 3 ai 5 anni .
Stiamo cercando di ricostruire la rete elettrica proprio nel momento in cui tutti gli altri stanno cercando di elettrificare auto e pompe di calore. La catena di approvvigionamento è frammentata.
Stiamo esaurendo anche le materie prime: rame, litio e neodimio per i magneti delle ventole di raffreddamento.
Dipendiamo dalla Cina per la lavorazione di quasi tutti questi minerali essenziali. Come ho spiegato in questa ” Guida ai Data Center “, ci stiamo rendendo conto che l’economia digitale è in realtà un’economia materiale.
Se la Cina limitasse le esportazioni di grafite o gallio (come ha iniziato a fare), la Nuvola smetterebbe di crescere.
Il discorso di efficienza “Fidati di me, fratello”
La controargomentazione della Silicon Valley è la teoria dell'”impronta manuale”. Il concetto è questo: sì, addestrare l’IA richiede molta energia, ma l’IA renderà il resto del mondo così efficiente da ripagarsi da sola.
I modelli dell’IEA suggeriscono che l’intelligenza artificiale potrebbe ottimizzare la logistica, gestire le reti intelligenti e ridurre il consumo energetico degli edifici del 10-20%.
E onestamente? È un argomento convincente. Se l’intelligenza artificiale riesce a capire come guidare un convoglio di camion con un’efficienza del 5% maggiore, si risparmia più carbonio di quanto emetta il data center.
Ma questa è una scommessa a lungo termine contro un ritiro garantito dell’energia a breve termine.
Il problema fondamentale dell’efficienza è duplice:
Addestramento vs. Inferenza: addestrare un modello colossale richiede un’enorme quantità di energia, che dura mesi. L’IA risultante viene quindi messa al lavoro per eseguire l’inferenza… rispondendo alle domande. Sebbene l’inferenza sia molto più economica per interazione rispetto all’addestramento, il suo volume globale sta crescendo esponenzialmente, trasformando piccoli costi energetici in un enorme e persistente consumo di energia.
Il tapis roulant dell’hardware: una CPU di fascia alta potrebbe durare 5-7 anni in un data center. Le nuove GPU AI vengono considerate obsolete in appena due anni. Questo brutale e accelerato ciclo hardware… la costante sostituzione degli H100 ad alto consumo energetico con Blackwell ancora più esigenti… significa che il carbonio incorporato e le materie prime legate al silicio non hanno mai la possibilità di ripagare il loro debito energetico in un arco di vita ragionevole.
Stiamo spendendo il carbonio ora nella speranza di ottenere efficienza in futuro. Mentre l’industria sta lavorando su silicio “più intelligente” e ASIC efficienti per l’inferenza, questa transizione non arriverà abbastanza velocemente da salvare la rete dall’attuale impennata esponenziale.
Cosa succederà dopo?
Stiamo passando da un’era di vincoli generazionali a un’era di vincoli di connessione.
Il bene più prezioso al mondo in questo momento non è il chip H100; è un accordo di interconnessione firmato con una società di servizi pubblici. La “coda” per entrare nella rete è la nuova corda di velluto.
Ciò imporrà alcune cose:
Intelligenza artificiale off-grid: i giganti della tecnologia smetteranno di aspettare l’azienda elettrica. Costruiranno i propri reattori nucleari modulari (SMR) o enormi parchi solari con accumulo di energia, prendendosi di fatto la palla al balzo e tornando a casa.
Calcolo sovrano: le nazioni si renderanno conto che il “calcolo” è una risorsa strategica come il petrolio. Vedrete i paesi accumulare energia per alimentare i propri modelli di intelligenza artificiale, anziché esportarla.
Il muro dell’efficienza: raggiungeremo un punto in cui il costo dell’energia renderà antieconomico l’addestramento dell’intelligenza artificiale basato sulla forza bruta, costringendo a passare a chip “più intelligenti” (ASIC) e forse, in futuro, all’elaborazione neuromorfica o fotonica.
La mano invisibile distribuisce le carte, ma le leggi della termodinamica smascherano il bluff. Il mondo virtuale richiede un potere reale e, per la prima volta da molto tempo, ci stiamo rendendo conto che i “dati illimitati” erano un’illusione temporanea.
Autore: Michael Kern, giornalista e redattore di Safehaven.com e Oilprice.com.

In un’epoca che corre verso l’artificializzazione totalitaria del mondo, Luciano Boi e Stefano Isola pongono la domanda essenziale: quale sarà il posto dell’uomo nella società futura? La direzione dei mutamenti in atto sta conducendo, infatti, verso una crescente marginalizzazione del contributo umano dagli accadimenti significativi dell’esistenza, esiliando l’uomo nel “regno dell’insignificanza”, alla periferia di un universo rifondato sull’imperio degli algoritmi, sul “non pensiero” dell’intelligenza artificiale, sulla volontà di potenza di macchine che simulano intenzioni e decisioni umane, rovesciando il principio di utilità della tecnica in quello di utilità per la tecnica.
Il “regno dell’insignificanza” è quello dove i corpi sono sostituiti dai profili; le relazioni dalle connessioni; la comunità dalla community; la città dalla smart city; la politica dalla governance; la scuola dall’eduverso; il linguaggio dal messaggio; le professioni dai robot.
In pagine di grande intensità gli autori, scienziati e filosofi, squarciano il velo del pensiero unico per smascherare i nuovi meccanismi di assoggettamento che si celano dietro la narrativa scientista e la deriva tecnofila, alzando la voce della coscienza critica per la tutela dell’identità, della dignità e della libertà umana. A rischio, oramai, è la stessa ontologia degli esseri umani, oggetto essa stessa di un progetto di manipolazione sempre più invasivo.
Il libro si dispiega lungo una serie di quesiti che rappresentano i nodi critici del nostro tempo invitando il lettore a guardare oltre le apparenze e ad interrogarsi sulla direzione che la modernità sta prendendo.