Ci stiamo rendendo conto abbastanza in fretta dei pericoli del militarismo dell’intelligenza artificiale?
L’intelligenza artificiale è ovunque oggigiorno. Non c’è via di scampo. E mentre gli eventi geopolitici sembrano sfuggire al controllo in Ucraina e a Gaza , appare chiaro che l’intelligenza artificiale, pur essendo teoricamente una forza di cambiamento positivo, si è trasformata in un preoccupante acceleratore della volatilità e della destabilizzazione che potrebbero portarci a pensare ancora una volta all’impensabile: in questo caso, alla Terza Guerra Mondiale.
Il ritmo sconsiderato e irresponsabile dello sviluppo dell’IA necessita di una dose di moderazione e saggezza che sembra mancare gravemente sia in ambito tecnologico che politico. Coloro su cui abbiamo fatto affidamento in passato – accademici di spicco, figure politiche lungimiranti e vari luminari e opinion leader della cultura popolare – sembrano spesso mancare nel lanciare a gran voce i necessari allarmi. Ultimamente, tuttavia, e a offrire almeno un briciolo di speranza, stiamo assistendo a una maggiore attenzione da parte della stampa mainstream sui pericoli del potenziale distruttivo dell’IA.
Per avere un’idea delle prospettive sull’IA in un contesto militare, è utile iniziare con un articolo apparso sulla rivista Wired qualche anno fa, “Il futuro della guerra totalmente autonomo e basato sull’IA è qui”. Questo articolo trasudava entusiasmo per la prospettiva di una guerra autonoma basata sull’IA. Proseguiva discutendo di come le Big Tech, l’esercito e l’establishment politico si stessero sempre più allineando per promuovere l’uso dell’IA come arma in una nuova folle corsa agli armamenti nucleari. L’articolo forniva anche un chiaro assaggio della sciocca trasparenza del fin troppo comune mantra delle Big Tech secondo cui “è davvero pericoloso, ma facciamolo comunque”.
Più di recente, abbiamo visto presunti leader di pensiero come l’ex CEO di Google Eric Schmidt lanciare l’allarme sull’IA in guerra dopo aver, ovviamente, contribuito in modo determinante alla sua promozione. Un articolo del marzo 2025 apparso su Fortune osservava che “Eric Schmidt, il CEO di Scale AI Alexandr Wang e il direttore del Center for AI Safety Dan Hendrycks avvertono che trattare la corsa agli armamenti globali dell’IA come il Progetto Manhattan potrebbe ritorcersi contro di loro. Invece di un’accelerazione sconsiderata, propongono una strategia di deterrenza, trasparenza e cooperazione internazionale, prima che l’IA sovrumana vada fuori controllo”. È un peccato che il signor Schmidt non abbia riflettuto di più sul suo “oops” a livello planetario prima di decidere di contribuire in modo così determinante allo sviluppo delle sue capacità.
L’accelerazione dello sviluppo frenetico dell’IA ha ora ricevuto il via libera dall’amministrazione Trump, con i profondi legami del vicepresidente statunitense J.D. Vance con le Big Tech che diventano sempre più evidenti. Questa posizione è facilmente interpretabile: avanti tutta. Uno dei primi atti ufficiali di Trump è stato l’annuncio del Progetto Stargate, un investimento di 500 miliardi di dollari in infrastrutture di IA. Sia il presidente Donald Trump che Vance hanno chiarito la loro posizione: non tenteranno in alcun modo di rallentare il progresso sviluppando barriere e normative sull’IA, nemmeno al punto di impedire agli Stati di emanare le proprie normative nell’ambito del cosiddetto “Big Beautiful Bill”.
Se c’è un lato positivo in questo cupo scenario, è questo: i pericoli del militarismo dell’IA stanno iniziando a essere pubblicizzati più ampiamente, mentre l’IA stessa viene sempre più esaminata negli ambienti politici e nei media mainstream. Oltre all’articolo di Fortune e ad altri articoli di cronaca, un recente articolo di Politico ha discusso di come i modelli di IA sembrino essere predisposti a soluzioni militari e conflitti:
L’anno scorso Schneider, direttore della Hoover Wargaming and Crisis Simulation Initiative presso la Stanford University, ha iniziato a sperimentare war game che affidavano all’intelligenza artificiale di ultima generazione il ruolo di decisori strategici. Nei giochi, cinque modelli linguistici di grandi dimensioni (LLM) già pronti all’uso – GPT-3.5, GPT-4 e GPT-4-Base di OpenAI; Claude 2 di Anthropic; e Llama-2 Chat di Meta – sono stati confrontati con situazioni di crisi fittizie che assomigliavano all’invasione russa dell’Ucraina o alla minaccia cinese a Taiwan. I risultati? Quasi tutti i modelli di IA hanno mostrato una preferenza per l’escalation aggressiva, l’uso indiscriminato della potenza di fuoco e la trasformazione delle crisi in guerre, fino al punto di lanciare armi nucleari. “L’IA interpreta sempre Curtis LeMay”, afferma Schneider, riferendosi al generale dell’Aeronautica Militare della Guerra Fredda, notoriamente amante delle armi nucleari. “È quasi come se l’IA capisse l’escalation, ma non la de-escalation. Non sappiamo davvero perché.”
Personalmente, non credo che il “perché” sia un mistero. C’è una percezione diffusa che l’IA sia uno sviluppo relativamente recente, nato nel settore high-tech. Ma questa è un’immagine fuorviante, spesso dipinta o poco compresa dai giornalisti dei media influenzati dalle aziende. La realtà è che lo sviluppo dell’IA è stato un enorme investimento continuo da parte delle agenzie governative per decenni. Secondo la Brookings Institution, al fine di promuovere una corsa agli armamenti dell’IA tra Stati Uniti e Cina, il governo federale, in stretta collaborazione con le forze armate, ha svolto il ruolo di incubatore per migliaia di progetti di IA nel settore privato nell’ambito del National AI Initiative Act del 2020. Il COO di Open AI, l’azienda che ha creato ChatGPT, ha ammesso apertamente sulla rivista Time che i finanziamenti governativi sono stati il principale motore dello sviluppo dell’IA per molti anni.
Questo programma nazionale di intelligenza artificiale è stato supervisionato da un numero sorprendente di agenzie governative. Tra queste, ma non solo, agenzie governative come DARPA, DOD, NASA, NIH, IARPA, DOE, Homeland Security e Dipartimento di Stato. La tecnologia è potere e, in fin dei conti, molte iniziative basate sulla tecnologia sono pezzi degli scacchi in una lotta di potere dietro le quinte che si svolge in un panorama geopolitico tecnocratico sempre più opaco. In questa mentalità, chi possiede i migliori sistemi di intelligenza artificiale otterrà non solo la superiorità tecnologica ed economica, ma anche il predominio militare. Ma, naturalmente, abbiamo già visto questo film nel caso della corsa agli armamenti nucleari.
L’ articolo di Politico ha anche sottolineato che l’intelligenza artificiale viene addestrata a prendere decisioni di alto livello e indipendenti dall’uomo in merito al lancio di armi nucleari:
Il Pentagono sostiene che ciò non accadrà nella vita reale, che la sua politica attuale prevede che all’IA non sarà mai permesso di dominare il “ciclo decisionale” umano che determina se, ad esempio, iniziare una guerra, di certo non una guerra nucleare. Ma alcuni scienziati dell’IA ritengono che il Pentagono abbia già imboccato una china pericolosa affrettandosi a schierare le ultime generazioni di IA come elemento chiave delle difese americane in tutto il mondo. Spinto dalla preoccupazione di dover respingere contemporaneamente Cina e Russia, nonché da altre minacce globali, il Dipartimento della Difesa sta creando sistemi difensivi basati sull’IA che in molte aree stanno rapidamente diventando autonomi, il che significa che possono rispondere autonomamente, senza l’intervento umano, e muoversi così velocemente contro potenziali nemici che gli umani non riescono a tenere il passo.
Nonostante la politica ufficiale del Pentagono secondo cui gli esseri umani avranno sempre il controllo, le esigenze della guerra moderna – la necessità di prendere decisioni in tempi rapidissimi, coordinare complessi sciami di droni, elaborare enormi quantità di dati di intelligence e competere con i sistemi basati sull’intelligenza artificiale costruiti da Cina e Russia – implicano che le forze armate diventeranno sempre più dipendenti dall’intelligenza artificiale. Ciò potrebbe rivelarsi vero, in ultima analisi, anche quando si tratterà della decisione più esistenziale di tutte: se lanciare o meno armi nucleari.
Conoscere la storia dei piani di intelligenza artificiale dell’esercito è essenziale per comprenderne le attuali complessità. Un’altra prospettiva illuminante sulla doppia minaccia rappresentata dall’interazione tra intelligenza artificiale e nucleare è stata offerta da Peter Byrne in “Into the Uncanny Valley: Human-AI War Machines”:
Nel 1960, JCR Licklider pubblicò “Man-Computer Symbiosis” su una rivista specializzata del settore elettronico. Finanziato dall’Aeronautica Militare, Licklider esplorò metodi per fondere IA ed esseri umani in macchine pronte al combattimento, anticipando l’attuale missione militare-industriale di incaricare simbionti guidati da IA di colpire gli esseri umani…
Facciamo un salto in avanti di sessant’anni: macchine militari dotate di modelli linguistici complessi chiacchierano prolisse con convincenti arie di autorità. Ma proiettare qualità umanoidi non rende queste macchine intelligenti, affidabili o capaci di distinguere la realtà dalla finzione. Addestrata su detriti recuperati da internet, l’IA è limitata da un classico problema di “spazzatura in entrata-spazzatura in uscita”, il suo tallone d’Achille. Invece di risolvere i dilemmi etici, i sistemi di IA militari rischiano di moltiplicarli, come è accaduto con l’impiego di droni autonomi che non riescono a distinguere in modo affidabile i fucili dai rastrelli, o i veicoli militari dalle auto familiari… In effetti, l’affermazione spesso ripetuta del Pentagono secondo cui l’intelligenza artificiale militare è progettata per aderire a standard etici accettati è assurda, come esemplificato dall’omicidio di massa di palestinesi trasmesso in diretta streaming da parte delle forze israeliane, reso possibile da programmi di IA disumanizzanti che la maggioranza degli israeliani applaude. Le piattaforme IA-umane vendute a Israele da Palantir, Microsoft, Amazon Web Services, Dell e Oracle sono programmate per consentire crimini di guerra e genocidi.
Il ruolo dell’esercito nello sviluppo della maggior parte delle tecnologie avanzate che si sono insinuate nella società moderna rimane ancora poco noto all’opinione pubblica. Ma nell’attuale contesto caratterizzato dalla scellerata alleanza tra potere aziendale e governo, non sembra più esserci un contrappeso etico all’utilizzo di un vaso di Pandora di tecnologie di intelligenza artificiale apparentemente fuori controllo per scopi tutt’altro che nobili.
Il fatto che l’enigma dell’IA sia emerso nel mezzo di una crescente policrisi mondiale sembra indicare una crisi esistenziale più grande della vita per l’umanità, predetta e rappresentata in modo minaccioso nei film di fantascienza, nella letteratura e nella cultura popolare per decenni. Probabilmente, questi non erano solo film di intrattenimento speculativo, ma nelle circostanze attuali possono essere visti come avvertimenti del nostro inconscio collettivo rimasti in gran parte inascoltati. Mentre continuiamo a essere forzatamente imbottiti di IA, l’elettorato deve trovare un modo per contrastare questo attacco sia all’autonomia personale che al processo democratico.
Nessuno ha avuto l’opportunità di votare se vogliamo vivere in un mondo tecnocratico quasi distopico, in cui il controllo e l’agire umano vengono costantemente erosi. E ora, naturalmente, l’IA stessa è su di noi in piena forza, sempre più utilizzata come arma non solo contro gli stati nazionali, ma anche contro i cittadini comuni. Come avvertì Albert Einstein, “È diventato spaventosamente ovvio che la nostra tecnologia ha superato la nostra umanità”. In un inquietante e ironico colpo di scena, sappiamo che Einstein ha avuto un ruolo importante nello sviluppo della tecnologia per le armi nucleari. Eppure, in qualche modo, come J. Robert Oppenheimer, alla fine sembrò comprendere le implicazioni più profonde di ciò che aveva contribuito a scatenare.
Possiamo dire lo stesso degli attuali CEO dell’intelligenza artificiale e di altri esperti autoproclamati, mentre scatenano con gioia questa potente forza e allo stesso tempo proclamano con noncuranza di non sapere se l’intelligenza artificiale e l’intelligenza artificiale generale potrebbero davvero significare la fine dell’umanità e del pianeta Terra stesso?
Autore
Tom Valovic, è uno scrittore, redattore, futurista e autore di Digital Mythologies (Rutgers University Press), una serie di saggi che esplorano le questioni sociali e culturali emergenti sollevate dall’avvento di Internet. È stato consulente dell’ex Congressional Office of Technology Assessment ed è stato caporedattore della rivista Telecommunications per molti anni. Tom ha scritto degli effetti della tecnologia sulla società per diverse pubblicazioni, tra cui Common Dreams, Counterpunch, The Technoskeptic, il Boston Globe, il San Francisco Examiner, il Media Studies Journal della Columbia University e altre. È possibile contattarlo all’indirizzo jazzbird@outlook.com.
Fonte: Common Dreams