La crescente impronta ambientale dell’intelligenza artificiale generativa

 

Il tempo separerà il clamore dalla realtà, ma una conseguenza dell’esplosione dell’intelligenza artificiale è chiara: l’impronta ambientale di questa tecnologia è grande e in costante crescita.

 

Due mesi dopo il suo rilascio nel novembre 2022, ChatGPT di OpenAI aveva 100 milioni di utenti attivi, e improvvisamente le aziende tecnologiche stavano correndo per offrire al pubblico più “AI generativa”. Gli opinionisti hanno paragonato l’impatto della nuova tecnologia a Internet, o all’elettrificazione, o alla Rivoluzione Industriale, o alla scoperta del fuoco.

Il tempo separerà il clamore dalla realtà, ma una conseguenza dell’esplosione dell’intelligenza artificiale è chiara: l’impronta ambientale di questa tecnologia è grande e in crescita.

L’uso dell’AI è direttamente responsabile delle emissioni di carbonio derivanti dall’elettricità non rinnovabile e del consumo di milioni di litri di acqua dolce, e aumenta indirettamente gli impatti derivanti dalla costruzione e dalla manutenzione delle apparecchiature ad alto consumo energetico su cui l’AI funziona. Mentre le aziende tecnologiche cercano di incorporare l’IA ad alta intensità in ogni cosa, dalla scrittura del curriculum alla medicina dei trapianti di rene, dalla scelta del cibo per cani alla modellazione del clima, citano molti modi in cui l’IA potrebbe aiutare a ridurre l’impronta ambientale dell’umanità. Ma i legislatori, le autorità di regolamentazione, gli attivisti e le organizzazioni internazionali vogliono ora assicurarsi che i benefici non siano superati dai rischi crescenti dell’IA.

“Lo sviluppo della prossima generazione di strumenti di IA non può andare a scapito della salute del nostro pianeta”, ha dichiarato il senatore del Massachusetts Edward Markey in una dichiarazione del 1° febbraio a Washington, dopo che lui e altri senatori e rappresentanti hanno presentato un disegno di legge che richiederebbe al Governo federale di valutare l’attuale impronta ambientale dell’IA e di sviluppare un sistema standardizzato per segnalare gli impatti futuri. Allo stesso modo, l'”AI Act” dell’Unione Europea, approvato dagli Stati membri la scorsa settimana, richiederà ai “sistemi AI ad alto rischio” (che includono i potenti “modelli di fondazione” che alimentano ChatGPT e altre AI simili) di riferire il loro consumo di energia, l’uso di risorse e altri impatti durante il ciclo di vita dei sistemi. La legge dell’UE entrerà in vigore il prossimo anno.

Nel frattempo, l’Organizzazione Internazionale per la Standardizzazione, una rete globale che sviluppa standard per i produttori, le autorità di regolamentazione e altri, ha dichiarato che emetterà criteri per l'”IA sostenibile” nel corso di quest’anno. Questi includeranno standard per misurare l’efficienza energetica, l’uso di materie prime, il trasporto e il consumo di acqua, oltre a pratiche per ridurre l’impatto dell’IA in tutto il suo ciclo di vita, dal processo di estrazione dei materiali e di produzione dei componenti del computer all’elettricità consumata dai suoi calcoli. L’ISO vuole consentire agli utenti dell’AI di prendere decisioni informate sul loro consumo di AI.

Al momento, non è possibile sapere in che modo la richiesta di aiuto per i compiti da parte dell’AI o la foto di un astronauta che cavalca un cavallo influiranno sulle emissioni di carbonio o sulle riserve di acqua dolce. Ecco perché le proposte di “AI sostenibile” del 2024 descrivono i modi per ottenere maggiori informazioni sugli impatti dell’AI.

In assenza di standard e regolamenti, le aziende tecnologiche hanno dichiarato qualsiasi cosa scelgano, in qualsiasi modo, sull’impatto dell’IA, ha detto Shaolei Ren, professore associato di ingegneria elettrica e informatica presso l’UC Riverside, che ha studiato i costi idrici della computazione negli ultimi dieci anni. Basandosi sui calcoli dell’uso annuale di acqua per i sistemi di raffreddamento di Microsoft, Ren stima che una persona che si impegna in una sessione di domande e risposte con GPT-3 (circa 10-50 risposte) comporta il consumo di mezzo litro di acqua dolce. “Varierà a seconda della regione, e con un’IA più grande, potrebbe essere di più”. Ma rimane ancora molto da scoprire sui milioni di litri d’acqua utilizzati per raffreddare i computer che eseguono l’IA, ha detto.

Lo stesso vale per il carbonio.

“Gli scienziati dei dati oggi non hanno un accesso facile o affidabile alle misurazioni [degli impatti dei gas serra dell’IA], il che impedisce lo sviluppo di tattiche attuabili”, ha scritto un gruppo di 10 ricercatori di spicco sugli impatti dell’IA in un documento della conferenza del 2022. Da quando hanno presentato il loro articolo, le applicazioni e gli utenti dell’IA sono proliferati, ma il pubblico è ancora all’oscuro di questi dati, ha detto Jesse Dodge, ricercatore presso l’Allen Institute for Artificial Intelligence di Seattle, che è stato uno dei coautori del documento.

L’AI può funzionare su molti dispositivi — la semplice AI che corregge automaticamente i messaggi di testo funzionerà su uno smartphone. Ma il tipo di AI che le persone desiderano utilizzare è troppo grande per la maggior parte dei dispositivi personali, ha detto Dodge. “I modelli che sono in grado di scrivere una poesia per lei, o di redigere un’e-mail, sono molto grandi”, ha detto. “Le dimensioni sono fondamentali per avere queste capacità”.

Le grandi AI devono eseguire un numero immenso di calcoli molto velocemente, di solito su unità di elaborazione grafica specializzate — processori originariamente progettati per calcoli intensivi per il rendering della grafica sugli schermi dei computer. Rispetto ad altri chip, le GPU sono più efficienti dal punto di vista energetico per l’AI e sono più efficienti quando vengono eseguite in grandi “centri dati cloud” — edifici specializzati pieni di computer dotati di questi chip. Più grande è il centro dati, più efficiente può essere l’energia. I miglioramenti nell’efficienza energetica dell’AI negli ultimi anni sono in parte dovuti alla costruzione di un maggior numero di “data center hyperscale”, che contengono molti più computer e possono scalare rapidamente. Mentre un tipico centro dati cloud occupa circa 100.000 metri quadrati, un centro hyperscale può essere di 1 o addirittura 2 milioni di metri quadrati.

Le stime del numero di data center cloud in tutto il mondo variano da circa 9.000 a quasi 11.000. Altri sono in costruzione. L’Agenzia Internazionale dell’Energia, o IEA, prevede che il consumo di elettricità dei data center nel 2026 sarà doppio rispetto al 2022 — 1.000 terawatt, circa equivalente all’attuale consumo totale del Giappone.

Tuttavia, a dimostrazione di un problema nel modo in cui vengono misurati gli impatti dell’IA, la stima dell’IEA include tutte le attività dei data center, che si estendono oltre l’IA a molti aspetti della vita moderna. Anche l’interfaccia del negozio di Amazon, i video di Apple TV, l’archiviazione delle e-mail di milioni di persone su Gmail e il “mining” di Bitcoin vengono eseguiti dai data center. (Altri rapporti dell’AIE escludono le operazioni di criptovaluta, ma raggruppano comunque tutte le altre attività dei data center).

La maggior parte delle aziende tecnologiche che gestiscono i data center non rivelano quale sia la percentuale del loro utilizzo energetico nei processi di IA. L’eccezione è Google, che afferma che il “machine learning” — la base dell’IA simile all’uomo — rappresenta un po’ meno del 15 percento del consumo energetico dei suoi data center.

Un’altra complicazione è il fatto che l’AI, a differenza del mining di Bitcoin o dello shopping online, può essere utilizzata per ridurre gli impatti dell’umanità. L’AI può migliorare i modelli climatici, trovare modi più efficienti di produrre tecnologia digitale, ridurre gli sprechi nei trasporti e tagliare l’utilizzo di carbonio e acqua. Una stima, ad esempio, ha rilevato che le case intelligenti gestite dall’AI potrebbero ridurre il consumo di CO2 delle famiglie fino al 40%. E un recente progetto di Google ha scoperto che un’intelligenza artificiale che elabora velocemente i dati atmosferici può guidare i piloti di linea verso percorsi di volo che lasceranno il minor numero di scie.

Poiché le scie creano più di un terzo del contributo dell’aviazione commerciale al riscaldamento globale, “se l’intero settore dell’aviazione sfruttasse questa singola scoperta dell’IA”, afferma Dave Patterson, professore emerito di informatica presso l’UC Berkeley e ricercatore di Google, “questa singola scoperta farebbe risparmiare più CO₂e (CO₂ e altri gas serra) della CO₂e di tutte le IA nel 2020”.

L’analisi di Patterson prevede che l’impronta di carbonio dell’IA si stabilizzerà presto e poi inizierà a ridursi, grazie ai miglioramenti dell’efficienza con cui il software e l’hardware dell’IA utilizzano l’energia. Un riflesso di questo miglioramento dell’efficienza: mentre l’utilizzo dell’AI è aumentato dal 2019, la sua percentuale di utilizzo dell’energia dei data center di Google si è mantenuta al di sotto del 15 percento. E mentre il traffico internet globale è aumentato di oltre venti volte dal 2010, la quota di elettricità mondiale utilizzata dai data center e dalle reti è aumentata molto meno, secondo l’AIE.

Tuttavia, i dati sul miglioramento dell’efficienza non convincono alcuni scettici, che citano un fenomeno sociale chiamato “paradosso di Jevons”: rendere una risorsa meno costosa a volte aumenta il suo consumo nel lungo periodo. “È un effetto di rimbalzo”, ha detto Ren. “Se si allarga l’autostrada, le persone consumano meno carburante perché il traffico si muove più velocemente, ma poi arrivano più auto. Il consumo di carburante aumenta rispetto a prima”. Se il riscaldamento domestico è più efficiente del 40% grazie all’AI, ha scritto di recente un critico, le persone potrebbero finire per tenere le loro case più calde per più ore al giorno.

“L’intelligenza artificiale è un acceleratore per tutto”, ha detto Dodge. “Rende più veloce qualsiasi cosa si stia sviluppando”. Presso l’Allen Institute, l’AI ha aiutato a sviluppare programmi migliori per modellare il clima, seguire le specie in pericolo e limitare la pesca eccessiva, ha detto. Ma a livello globale l’AI potrebbe anche supportare “molte applicazioni che potrebbero accelerare il cambiamento climatico”. È qui che si entra in questioni etiche sul tipo di AI che si vuole”.

Se l’uso globale dell’elettricità può sembrare un po’ astratto, l’uso dell’acqua da parte dei centri dati è un problema più locale e tangibile, soprattutto nelle aree colpite dalla siccità. Per raffreddare l’elettronica delicata negli interni puliti dei data center, l’acqua deve essere priva di batteri e impurità che potrebbero rovinare il lavoro. In altre parole, i centri dati spesso competono “per la stessa acqua con cui le persone bevono, cucinano e si lavano”, ha detto Ren.

Nel 2022, Ren ha detto che i centri dati di Google hanno consumato circa 5 miliardi di galloni (quasi 20 miliardi di litri) di acqua dolce per il raffreddamento. (“Uso consumistico” non include l’acqua che viene fatta scorrere in un edificio e poi restituita alla fonte). Secondo un recente studio di Ren, i centri dati di Google hanno utilizzato il 20% in più di acqua nel 2022 rispetto al 2021, mentre l’uso di acqua di Microsoft è aumentato del 34% nello stesso periodo. (I centri dati di Google ospitano il suo chatbot Bard e altre IA generative; i server di Microsoft ospitano ChatGPT e i suoi fratelli maggiori GPT-3 e GPT-4. Tutti e tre sono prodotti da OpenAI, in cui Microsoft è un grande investitore).

Man mano che vengono costruiti o ampliati altri centri dati, i loro vicini si sono preoccupati di scoprire quanta acqua consumano. Ad esempio, a The Dalles, in Oregon, dove Google gestisce tre centri dati e ne progetta altri due, il governo cittadino ha intentato una causa nel 2022 per tenere segreto l’uso dell’acqua da parte di Google agli agricoltori, agli ambientalisti e alle tribù dei nativi americani, preoccupati per gli effetti sull’agricoltura e sugli animali e le piante della regione. La città ha ritirato la causa all’inizio dello scorso anno. I registri che ha poi reso pubblici hanno mostrato che i tre centri dati esistenti di Google utilizzano più di un quarto delle riserve idriche della città. In Cile e in Uruguay, sono scoppiate proteste per i progetti di centri dati di Google che attingerebbero agli stessi serbatoi che forniscono acqua potabile.

Soprattutto, secondo i ricercatori, è necessario un cambiamento di cultura nel mondo rarefatto dello sviluppo dell’IA. I creatori di IA generativa devono concentrarsi al di là dei progressi tecnici delle loro ultime creazioni ed essere meno riservati sui dettagli dei dati, del software e dell’hardware che utilizzano per crearle.

Un giorno, in futuro, Dodge ha detto che un’AI potrebbe essere in grado — o essere legalmente obbligata — a informare un utente sull’impatto idrico e sulle emissioni di carbonio di ogni singola richiesta che fa. “Sarebbe uno strumento fantastico che aiuterebbe l’ambiente”, ha detto. Per il momento, però, i singoli utenti non hanno molte informazioni o potere per conoscere la loro impronta AI, tanto meno per prendere decisioni in merito.

“Non c’è molto che i singoli possano fare, purtroppo”, ha detto Ren. Al momento, si può “cercare di usare il servizio con giudizio”, ha detto.

Correzione, 21 febbraio 2024: Una versione precedente di questo articolo riportava erroneamente che il ricercatore Dave Patterson si riferiva alle emissioni di CO₂ dell’aviazione globale. Patterson si riferiva in realtà alle emissioni di CO₂e (“anidride carbonica equivalente”), una misurazione che include sia la CO₂ che altri gas serra.

Autore: David Berreby, scrive di intelligenza artificiale e robotica, e il suo lavoro è apparso su The New York Times, National Geographic, Slate e altre pubblicazioni. È l’autore di ” Noi e loro: la scienza dell’identità “.

Fonte originale: Yale Environment 360


https://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale