Valori umani per l’intelligenza artificiale

La posta in gioco è troppo alta per lasciare il corso dello sviluppo dell’IA ai ricercatori, per non parlare degli amministratori delegati della tecnologia. Sebbene la regolamentazione pesante non sia la risposta, l’attuale vuoto normativo deve essere colmato e tale processo richiede un impegno globale su vasta scala.

Questo potrebbe essere l’anno in cui l’intelligenza artificiale trasformerà la vita quotidiana. Così ha affermato  Brad Smith , presidente e vicepresidente di Microsoft, in occasione di un evento sull’IA organizzato dal Vaticano la scorsa settimana. Ma la dichiarazione di Smith era meno una previsione che un invito all’azione: l’evento — a cui hanno partecipato leader del settore e rappresentanti delle tre religioni abramitiche — ha cercato di promuovere un approccio etico e incentrato sull’uomo allo sviluppo dell’IA.

Non c’è dubbio che l’IA pone una serie scoraggiante di sfide operative, etiche e normative. E affrontarli sarà tutt’altro che semplice. Sebbene lo sviluppo dell’IA risalga agli anni ’50, i contorni e il probabile impatto della tecnologia rimangono nebulosi.

Naturalmente, le recenti scoperte — dal testo quasi agghiacciante simile all’uomo prodotto da ChatGPT di OpenAI alle applicazioni che potrebbero far risparmiare anni al processo di scoperta della droga — fanno luce su alcune dimensioni dell’immenso potenziale dell’IA. Ma resta impossibile prevedere tutti i modi in cui l’IA rimodellerà le vite umane e la civiltà.

Questa incertezza non è una novità. Anche dopo aver riconosciuto il potenziale trasformativo di una tecnologia, la forma della trasformazione tende a sorprenderci. I social media, ad esempio, sono stati inizialmente pubblicizzati come un’innovazione che avrebbe rafforzato la democrazia, ma hanno fatto molto di più per destabilizzarla facilitando la diffusione della disinformazione. È lecito ritenere che l’intelligenza artificiale verrà sfruttata in modi simili.

Non capiamo nemmeno del tutto come funziona l’IA. Considera il cosiddetto problema della scatola nera : con la maggior parte degli strumenti basati sull’intelligenza artificiale, sappiamo cosa entra e cosa esce, ma non cosa succede nel mezzo. Se l’intelligenza artificiale sta prendendo decisioni (a volte irrevocabili), questa opacità rappresenta un serio rischio, che è aggravato da problemi come la trasmissione di pregiudizi impliciti attraverso l’apprendimento automatico.

L’uso improprio dei dati personali e la distruzione di posti di lavoro sono due rischi aggiuntivi. E, secondo l’ex Segretario di Stato americano Henry A. Kissinger, la tecnologia IA può minare la creatività e la visione umana mentre le informazioni arrivano a ” sopraffare ” la saggezza. Alcuni temono che l’IA porterà all’estinzione umana .

Con una posta in gioco così alta, il futuro della tecnologia non può essere lasciato ai ricercatori di intelligenza artificiale, figuriamoci ai CEO della tecnologia . Sebbene la regolamentazione pesante non sia la risposta, l’attuale vuoto normativo deve essere colmato. Tale processo richiede il tipo di impegno globale su vasta scala che sta sempre più modellando gli sforzi per combattere il cambiamento climatico.

In effetti, il cambiamento climatico offre un’utile analogia per l’intelligenza artificiale, molto più utile del confronto nucleare spesso fatto. L’esistenza di armi nucleari può influenzare le persone indirettamente, attraverso gli sviluppi geopolitici, ma la tecnologia non è un appuntamento fisso della nostra vita personale e professionale; né è condiviso a livello globale. Ma il cambiamento climatico, come l’IA, colpisce tutti e un’azione per limitarlo potrebbe mettere un paese in una posizione di svantaggio.

La corsa per dominare l’IA è già una caratteristica chiave della rivalità USA-Cina. Se uno dei due paesi impone limiti alla propria industria dell’IA, rischia di consentire all’altro di andare avanti. Ecco perché, come per la riduzione delle emissioni, è fondamentale un approccio cooperativo. I governi, insieme ad altri attori pubblici rilevanti, devono lavorare insieme per progettare e installare guardrail per l’innovazione del settore privato. Certo, è più facile a dirsi che a farsi. Il consenso limitato su come affrontare l’IA ha portato a un miscuglio di regolamenti. E gli sforzi per elaborare un approccio comune all’interno dei forum internazionali sono stati ostacolati dalle lotte di potere tra i principali attori e dalla mancanza di autorità di contrasto.

Ma ci sono alcune notizie promettenti. L’Unione europea sta lavorando per creare uno strumento ambizioso basato su principi per stabilire norme armonizzate sull’IA. L’IA Act, che dovrebbe essere finalizzato quest’anno, mira a facilitare lo “sviluppo e l’adozione” dell’IA nell’UE, garantendo al contempo che la tecnologia “funzioni per le persone e sia una forza positiva nella società”. Dall’adattamento delle norme sulla responsabilità civile alla revisione del quadro di sicurezza dei prodotti dell’UE, l’atto assume il tipo di approccio globale alla regolamentazione dell’IA che ci mancava.

Non dovrebbe sorprendere che l’UE sia emersa come capofila nella regolamentazione dell’IA. Il blocco ha una storia di avanguardia nello sviluppo di quadri normativi in ​​aree critiche. La legislazione dell’UE sulla protezione dei dati probabilmente ha  ispirato azioni simili altrove, dal Consumer Privacy Act in California alla Personal Information Protection Law in Cina.

Ma i progressi sulla regolamentazione globale dell’IA saranno impossibili senza gli Stati Uniti. E, nonostante il loro impegno condiviso con l’UE per lo sviluppo e l’implementazione di “IA affidabile”, gli Stati Uniti si impegnano soprattutto per la supremazia dell’IA. A tal fine, sta cercando non solo di rafforzare le proprie industrie di punta, anche riducendo al minimo la burocrazia, ma anche di ostacolare il progresso in Cina.

Come ha osservato la National Security Commission on Artificial Intelligence in un rapporto del 2021 , gli Stati Uniti dovrebbero prendere di mira “punti di strozzatura che impongono significativi costi strategici a cascata sui concorrenti ma costi economici minimi per l’industria statunitense”. I controlli sulle esportazioni che gli Stati Uniti hanno imposto lo scorso ottobre, che prendono di mira i settori cinesi dell’informatica avanzata e dei semiconduttori, esemplificano questo approccio. Da parte sua, è improbabile che la Cina venga scoraggiata dalla sua ricerca per raggiungere l’autosufficienza tecnologica e, in definitiva, la supremazia.

Oltre ad aprire la strada alla manifestazione dei rischi generati dall’IA, questa rivalità tecnologica ha ovvie implicazioni geopolitiche. Ad esempio, il ruolo smisurato di Taiwan nell’industria globale dei semiconduttori le dà leva, ma potrebbe anche metterle un altro obiettivo alle spalle.

Ci sono voluti più di tre decenni perché la consapevolezza del cambiamento climatico si cristallizzasse in azione reale, e ancora non stiamo facendo abbastanza. Dato il ritmo dell’innovazione tecnologica, non possiamo permetterci di seguire un percorso simile sull’IA. A meno che non agiamo ora per garantire che lo sviluppo della tecnologia sia guidato da principi incentrati sull’uomo, quasi certamente ce ne pentiremo. E, come per il cambiamento climatico, molto probabilmente lamenteremo la nostra inerzia molto prima di quanto pensiamo.

Fonte: ProjectSyndicate, 16-01-2023

https://www.asterios.it/catalogo/ia-intelligenza-artificiale