Chi paga il conto?

♦ Il consumo energetico della versione più recente di ChatGPT è notevolmente più elevato rispetto ai modelli precedenti: si stima che potrebbe essere fino a 20 volte più dispendioso in termini di energia rispetto alla prima versione.

♦ Vi è una grave mancanza di trasparenza per quanto riguarda l’uso dell’energia e l’impatto ambientale dei modelli di intelligenza artificiale, in quanto non esistono mandati che obblighino le aziende di intelligenza artificiale a divulgare queste informazioni.

♦ La crescente domanda di energia dell’intelligenza artificiale sta contribuendo all’aumento dei costi dell’elettricità per i consumatori e sollevando preoccupazioni circa l’impatto ambientale più ampio del settore tecnologico.

Quanta energia consuma la versione più recente di ChatGPT? Nessuno lo sa con certezza, ma una cosa è certa: è tantissima. OpenAI, l’azienda che ha sviluppato ChatGPT, non ha rilasciato dati ufficiali sull’impronta energetica del modello linguistico di grandi dimensioni, ma gli studiosi stanno lavorando per quantificare il consumo energetico per le query, che è notevolmente superiore rispetto ai modelli precedenti.

Non esistono regole che obblighino le aziende di intelligenza artificiale a divulgare il proprio consumo energetico o l’impatto ambientale, quindi la maggior parte non rende pubblici questi tipi di statistiche . A maggio di quest’anno, l’84% di tutto il traffico di modelli linguistici di grandi dimensioni è stato condotto su modelli di intelligenza artificiale senza alcuna divulgazione ambientale.

“Mi lascia senza parole il fatto che si possa comprare un’auto e sapere quanti chilometri consuma per gallone, eppure utilizziamo tutti questi strumenti di intelligenza artificiale ogni giorno e non abbiamo assolutamente parametri di efficienza, fattori di emissione, niente”, afferma Sasha Luccioni, responsabile del clima presso un’azienda di intelligenza artificiale chiamata Hugging Face. “Non è obbligatorio, non è normativo. Considerata la situazione attuale con la crisi climatica, dovrebbe essere in cima all’agenda delle autorità di regolamentazione di tutto il mondo”, ha continuato.

Sam Altman, amministratore delegato di OpenAI, ha diffuso alcuni dati nella sfera pubblica, affermando che ChatGPT consuma 0,34 wattora di energia e 0,000085 galloni di acqua per query, ma ha omesso dettagli chiave come il modello a cui si riferiscono questi numeri e non ha fornito alcuna conferma o corroborazione delle sue affermazioni.

Esperti esterni a OpenAI hanno stimato che ChatGPT-5 potrebbe consumare fino a 20 volte più energia della prima versione di ChatGPT, e come minimo diverse volte di più. “Un modello più complesso come GPT-5 consuma più energia sia durante l’addestramento che durante l’inferenza. È anche mirato a un pensiero a lungo termine… Posso affermare con certezza che consumerà molta più energia di GPT-4”, ha recentemente dichiarato al Guardian Rakesh Kumar, professore all’Università dell’Illinois. L’attuale lavoro di Kumar si concentra sul consumo energetico dell’IA.

Mentre una query a ChatGPT nel 2023 avrebbe consumato circa 2 wattora, i ricercatori del laboratorio di intelligenza artificiale dell’Università del Rhode Island hanno scoperto che ChatGPT-5 può utilizzare fino a 40 wattora di elettricità per configurare una risposta di media lunghezza (circa 1.000 token). In media, stimano che il modello utilizzi poco più di 18 wattora per una risposta di questo tipo. Questo colloca ChatGPT-5 a un tasso di consumo energetico più elevato rispetto a qualsiasi altro modello di intelligenza artificiale monitorato, ad eccezione di due: il modello di ragionamento o3 di OpenAI e R1 di Deepseek.

Calcolare queste stime sui consumi energetici non è stato un compito facile, considerando la grave mancanza di trasparenza nel settore, nonostante i crescenti controlli. “È più importante che mai affrontare il vero costo ambientale dell’intelligenza artificiale”, ha dichiarato al Guardian Marwan Abdelatti, professore dell’Università del Rhode Island. “Invitiamo OpenAI e altri sviluppatori a cogliere questo momento per impegnarsi a garantire la massima trasparenza, rendendo pubblico l’impatto ambientale di GPT-5”.

Mentre le aziende tecnologiche consumano sempre più energia ogni anno per alimentare le loro ambizioni di intelligenza artificiale, i consumatori comuni ne subiscono le conseguenze. Sono i consumatori a pagare il conto per l’aumento vertiginoso dei consumi energetici. Il New York Times avverte che “le tariffe dell’elettricità per privati e piccole imprese potrebbero aumentare drasticamente con la costruzione di data center da parte di Amazon, Google, Microsoft e altre aziende tecnologiche e l’espansione nel settore energetico”. Inoltre, il passo indietro della Silicon Valley sugli impegni climatici avrà un impatto diretto sulle comunità globali, indipendentemente dal fatto che utilizzino o meno l’intelligenza artificiale.

“Stiamo assistendo a un massiccio trasferimento di ricchezza dai clienti residenziali dei servizi di pubblica utilità alle grandi aziende, ai data center e alle grandi aziende di servizi di pubblica utilità e alle loro società madri, che traggono profitto dalla costruzione di ulteriori infrastrutture energetiche”, ha dichiarato di recente a Business Insider David Lapp, consigliere del Maryland People’s Counsel.

“La regolamentazione dei servizi pubblici non riesce a proteggere i clienti residenziali, contribuendo a una crisi di accessibilità economica dell’energia”.

Autrice: Haley Zaremba, scrittrice e giornalista di Città del Messico. 

Fonte: OilPrice