Gli Stati Uniti non riescono ad affrontare adeguatamente le preoccupazioni sulla regolamentazione dell’IA: finanziamenti limitati ed esclusione dei ricercatori di etica

Il recente incontro del presidente Joe Biden con gli amministratori delegati delle principali società di intelligenza artificiale, tra cui Google, Microsoft, OpenAI e Anthropic, mirava a sottolineare l’importanza di garantire la sicurezza dei prodotti di intelligenza artificiale. Tuttavia, l’incontro ha suscitato critiche per l’esclusione dei ricercatori di etica e per i finanziamenti limitati assegnati alla ricerca sull’IA. Questo articolo esplora le preoccupazioni sollevate dalla comunità dell’IA e le potenziali conseguenze dell’approccio dell’amministrazione statunitense alla regolamentazione dell’IA.

Finanziamenti limitati e attenzione agli attori sbagliati

L’annuncio della Casa Bianca di un investimento di 140 milioni di dollari per lanciare sette istituti di ricerca sull’IA attraverso la National Science Foundation è insufficiente se confrontato con la portata e il potenziale impatto della tecnologia AI. Poiché l’IA continua a progredire a un ritmo rapido, finanziamenti e supporto adeguati sono essenziali per garantire che la ricerca e lo sviluppo rimangano concentrati sull’affrontare le pressanti questioni etiche e sociali che l’IA presenta.

Inoltre, la decisione di Biden di consultare gli amministratori delegati delle principali società di intelligenza artificiale ha sollevato preoccupazioni tra i ricercatori di etica dell’IA che da anni mettono in guardia sui pericoli dell’IA. Il ricercatore di intelligenza artificiale Dr. Timnit Gebru ha criticato l’incontro su Twitter, affermando: “Una stanza piena di tizi che ci hanno dato i problemi e ci hanno licenziato per aver parlato dei rischi, essendo stato chiamato dal dannato presidente a proteggere i diritti delle persone”. Escludendo questi ricercatori dalla conversazione, l’amministrazione corre il rischio di perpetuare gli stessi problemi che intende affrontare.

Le nuove paure. Cosa succede se l’allineamento dell’IA va storto?

Rischi di affidarsi a leader del settore

Invitando i leader delle aziende che sono state responsabili della creazione dei problemi con l’IA che la Casa Bianca cerca di affrontare, l’amministrazione rafforza inavvertitamente la narrativa secondo cui le aziende possono autoregolarsi. Elizabeth Renieris, ricercatrice di etica dell’IA dell’Università di Oxford, ha espresso le sue preoccupazioni su Twitter: “Sfortunatamente, e con tutto il rispetto, queste non sono le persone che possono dirci cosa è ‘più necessario per proteggere la società’ quando si tratta di #AI #AI” ..

Questo approccio è problematico, in quanto mina la necessità di un approccio più completo ed equilibrato alla regolamentazione dell’IA, che coinvolga non solo gli attori del settore, ma anche ricercatori indipendenti, esperti di etica e organizzazioni di sorveglianza.

La risposta inadeguata all’impatto dell’IA sulla società

L’attuale approccio alla regolamentazione dell’IA negli Stati Uniti non affronta adeguatamente le potenziali conseguenze negative della tecnologia dell’IA, inclusi problemi di privacy, pregiudizi occupazionali e il potenziale utilizzo dell’IA in campagne di disinformazione. “La ” Carta dei diritti dell’IA ” AI Bill of Rights dell’amministrazione Biden è un passo nella giusta direzione, ma è fondamentale coinvolgere una gamma più ampia di parti interessate e voci per garantire che la tecnologia dell’IA sia sviluppata e implementata in modo responsabile.”

Leadership inadeguata: la vicepresidente Kamala Harris

Un altro motivo di preoccupazione nell’approccio dell’amministrazione statunitense alla regolamentazione dell’IA è il ruolo di leadership della vicepresidente Kamala Harris in questo settore. Harris, che ha presieduto l’incontro con i CEO delle società di intelligenza artificiale, potrebbe non essere la persona più adatta per condurre la discussione e affrontare le complesse questioni relative alla tecnologia dell’IA. Ci sono diversi motivi per cui il ruolo di Harris nella gestione della regolamentazione dell’IA può essere problematico:

  1. Mancanza di competenze tecniche: Harris, una politica in carriera ed ex procuratore generale, potrebbe non possedere le competenze tecniche necessarie per comprendere appieno le complessità della tecnologia AI. Il suo background in giurisprudenza e politica, sebbene prezioso in altri settori, non la qualifica necessariamente per prendere decisioni informate sul futuro della ricerca sull’IA e sul suo impatto sulla società.
  2. Potenziali conflitti di interesse: come politico, Harris può essere influenzata da considerazioni politiche, che potrebbero potenzialmente influenzare le sue decisioni in merito alla regolamentazione dell’IA. Ciò crea un conflitto di interessi, poiché la sua responsabilità principale dovrebbe essere quella di proteggere i migliori interessi del pubblico, piuttosto che soddisfare gli interessi dei leader del settore o degli alleati politici.
  3. Mancato coinvolgimento dei ricercatori di etica dell’IA: la decisione di Harris di presiedere un incontro che escludeva i ricercatori di etica dell’IA, che da anni mettono in guardia sui pericoli dell’IA, mette ulteriormente in discussione la sua capacità di affrontare efficacemente le sfide poste dalla tecnologia dell’IA. Trascurando di coinvolgere questi esperti, Harris rischia di perpetuare gli stessi problemi che la regolamentazione dell’IA dovrebbe affrontare.
  4. Enfasi insufficiente sulle più ampie implicazioni dell’intelligenza artificiale: la dichiarazione di Harris dopo l’incontro alla Casa Bianca si è concentrata principalmente sulle responsabilità etiche, morali e legali delle società private nel garantire la sicurezza e la protezione dei loro prodotti. Sebbene queste siano considerazioni importanti, non affrontano i più ampi impatti sociali, economici e psicologici della tecnologia AI. Un approccio più completo alla regolamentazione dell’IA comporterebbe la considerazione di queste implicazioni più ampie e il coinvolgimento di una vasta gamma di parti interessate per garantire che l’IA serva i migliori interessi della società nel suo complesso.

L’approccio dell’amministrazione statunitense alla regolamentazione dell’IA, come evidenziato dalla recente riunione della Casa Bianca e dallo stanziamento limitato di fondi, non riesce ad affrontare le preoccupazioni critiche sollevate dai ricercatori di etica dell’IA e dalla più ampia comunità dell’IA.  Per garantire che la tecnologia dell’IA serva i migliori interessi della società, è fondamentale coinvolgere una vasta gamma di voci e prospettive, allocare finanziamenti sufficienti e dare priorità a un approccio globale alla regolamentazione che riconosca e affronti i potenziali rischi e le sfide che l’IA presenta.

https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale