Intelligenza artificiale generale decentralizzata: il tallone d’Achille dell’umanità

 

Ma è importante creare e utilizzare l’IA in modo responsabile ed etico, con l’obiettivo di migliorare le persone e la società nel suo complesso. Lo sviluppo di un’intelligenza artificiale super generale non dovrebbe essere intrapreso per amore del dominio o della superiorità; piuttosto, dovrebbe essere fatto per promuovere la causa dell’umanità e migliorare la qualità della vita umana. La creazione di un’intelligenza artificiale (IA) super generale e dotata di enormi conoscenze e capacità potrebbe comportare rischi e difficoltà sostanziali per l’umanità.

L’intelligenza artificiale generale, chiamata anche “intelligenza artificiale forte”, è un tipo di intelligenza artificiale che può svolgere qualsiasi compito intellettuale che un essere umano può svolgere. Questo tipo di intelligenza artificiale viene spesso paragonato a sistemi di intelligenza artificiale ristretti, creati per svolgere un’attività specifica o una serie di attività. Questa è la fase dell’IA in cui ci troviamo in questo momento.

L’obiettivo teorico di creare un’intelligenza artificiale generale è realizzare macchine in grado di pensare e apprendere come gli esseri umani, essere in grado di risolvere problemi complessi, comprendere e interpretare il linguaggio naturale e adattarsi a nuove situazioni. Anche se ci sono stati molti progressi nello sviluppo delle tecnologie di IA, si ritiene che siamo ancora molto lontani dall’avere una vera IA generale.

Ma lo siamo?

Alcune delle parti più difficili della realizzazione di un’intelligenza artificiale generale sono la creazione di algoritmi in grado di apprendere e adattarsi a nuovi ambienti, attività e sistemi in grado di elaborare e comprendere il linguaggio naturale a un livello simile all’intelligenza umana. Un altro problema è creare sistemi di intelligenza artificiale in grado di pensare e decidere in un modo simile a come fanno gli umani. Non credo davvero che sarà il caso qui, però. Quando parliamo di una super intelligenza combinata, potrebbe non essere giusto confrontare tutto con il modo in cui lo fanno gli umani. Penso che questa potrebbe essere una creazione post-umana che potrebbe pensare o agire diversamente. In modi in cui possiamo persino concepire.

Per avvicinarsi a tali sistemi pensati, i sistemi di intelligenza artificiale (IA) devono essere in grado di apprendere da soli. Significa che un sistema di intelligenza artificiale può migliorare nel tempo imparando dai dati e dalle esperienze senza essere specificamente programmato per farlo.

Autoapprendimento

Attualmente i sistemi di intelligenza artificiale possono apprendere in diversi modi, ad esempio attraverso l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo. Lasciatemi spiegare.

Nell’apprendimento supervisionato, il sistema di intelligenza artificiale viene addestrato su un set di dati etichettato, che ha sia gli input che gli output corretti per ciascun input. Sulla base di ciò che ha appreso dai dati di addestramento, il sistema può quindi fare previsioni sui nuovi dati di input.

Nell’apprendimento non supervisionato, il sistema di intelligenza artificiale non riceve dati etichettati. Invece, ottiene un grande set di dati e deve capire da solo modelli e relazioni. Questo può aiutare con attività come il clustering e la riduzione del numero di dimensioni.

L’apprendimento per rinforzo, è il processo per insegnare a un sistema di intelligenza artificiale cosa fare in un dato ambiente per ottenere la massima ricompensa. Il sistema impara provando le cose e cambiando ciò che fa in base a come vanno a finire. I sistemi di intelligenza artificiale devono essere in grado di apprendere da soli perché li aiuta a migliorare nel tempo e ad adattarsi a nuovi compiti e ambienti. Consente inoltre loro di apprendere da grandi quantità di dati e di prendere decisioni e previsioni più accurate e utili.

Decentramento

Decentramento significa che il potere, le funzioni o la capacità di prendere decisioni sono distribuiti da un luogo o autorità centrale. In un sistema decentralizzato, il potere e il controllo non sono centralizzati in un’unica autorità o posizione centrale. Al contrario, sono distribuiti tra molte persone, macchine o gruppi diversi. Il decentramento può essere utilizzato in molte aree diverse, come il governo, l’economia e la tecnologia.

Nel contesto del governo, decentramento significa dare potere da un governo centrale a governi regionali o locali, o ad altri attori come organizzazioni della società civile o entità del settore privato. Ciò può significare che il governo centrale conferisce il potere di prendere decisioni, risorse o responsabilità a livelli inferiori di governo o ad altri attori.

In economia, “decentramento” significa spostare il potere economico e il processo decisionale lontano dalle grandi società o dalle autorità centrali e verso gruppi o individui più piccoli. Ottenere questo risultato può essere fatto in diversi modi, ad esempio attraverso la deregolamentazione, la privatizzazione o la creazione di mercati o reti decentralizzate.

Nella tecnologia, decentramento significa allontanare il controllo o il potere da un’autorità o punto centrale. Ciò può essere visto nella crescita di reti peer-to-peer come i sistemi di finanza decentralizzata (DeFi) e le applicazioni decentralizzate (DApp) che non hanno un’autorità centrale responsabile. Blockchain e valute digitali come Bitcoin ed Etherium sono esempi di tali tecnologie.

Il decentramento può aiutare a incoraggiare una maggiore partecipazione, responsabilità e resilienza nei diversi sistemi e può anche essere un modo per tenere sotto controllo il potere e sostenere la democrazia. Ma può anche causare problemi, come la possibilità che i cattivi attori si coordinino e lavorino insieme per assumere il controllo del sistema e la possibilità che il decentramento porti a una frammentazione o a un conflitto inarrestabili.

Una combinazione mortale (?)

Il decentramento e l’autoapprendimento sono due idee che hanno il potenziale per far progredire in modo significativo le capacità dei sistemi di intelligenza artificiale e portare allo sviluppo di un’intelligenza artificiale super generale che possiede vaste conoscenze e capacità.

Invece di essere conferiti a una singola entità o individuo, il potere, l’autorità e la responsabilità sono stati decentralizzati e ora sono detenuti da un numero di persone, sistemi o organizzazioni diverse. Nel contesto dell’intelligenza artificiale (IA), il decentramento può riferirsi al processo di sviluppo e implementazione di sistemi di intelligenza artificiale, nonché ai dati utilizzati per addestrare e valutare tali sistemi.

I sistemi di intelligenza artificiale (IA) decentralizzati hanno il potenziale per essere più resistenti ai guasti o alle manomissioni perché non esiste singolo punto di errore che potrebbe causare il crash dell’intero sistema. Inoltre, in teoria i sistemi di intelligenza artificiale decentralizzati possono essere più aperti e responsabili di quelli centralizzati perché non si basano su un’unica fonte di dati né prendono decisioni che potrebbero essere distorte. Invece, usano informazioni provenienti da molte fonti diverse.

Ma permettetemi di sottolineare qui che nessun punto centrale di errore significa nessun modo per spegnerlo.

I sistemi di intelligenza artificiale ad autoapprendimento hanno il potenziale per diventare più efficienti ed esponenziali nel tempo perché possono imparare dalle proprie esperienze e adattarsi alle nuove situazioni che si presentano. Ciò potrebbe portare allo sviluppo di un sistema di intelligenza artificiale in grado di immagazzinare enormi quantità di conoscenze e capacità e che ha il potenziale per superare rapidamente la specie umana.

Ma è importante creare e utilizzare l’IA in modo responsabile ed etico, con l’obiettivo di migliorare le persone e la società nel suo complesso. Lo sviluppo di un’intelligenza artificiale super generale non dovrebbe essere intrapreso per amore del dominio o della superiorità; piuttosto, dovrebbe essere fatto per promuovere la causa dell’umanità e migliorare la qualità della vita umana. La creazione di un’intelligenza artificiale (IA) super generale e dotata di enormi conoscenze e capacità potrebbe comportare rischi e difficoltà sostanziali per l’umanità.

Permettetemi di condividere alcuni pensieri con voi.

Uso improprio o abuso

Se un’intelligenza artificiale super generale dovesse cadere nelle mani sbagliate, potrebbe essere sfruttata per motivi dannosi come attacchi informatici o propaganda. È possibile che venga utilizzato per sfruttare comunità vulnerabili o per perpetuare ingiustizie se non viene creato e implementato in modo responsabile ed etico.

Disoccupazione diffusa e sconvolgimenti economici

Un’intelligenza artificiale super generale che possiede un’ampia gamma di capacità ha il potenziale per automatizzare un gran numero di lavori, il che si tradurrebbe in disoccupazione diffusa e sconvolgimenti economici. Ciò potrebbe avere importanti ripercussioni sia per la società che per l’economia, compreso un aumento del divario di reddito e un aumento del malcontento sociale.

Perdita di controllo

Questo è forse il problema più importante, il rischio di perdere il controllo del sistema (IA). Può essere difficile o addirittura impossibile mantenere il comando su un’intelligenza artificiale super generale che è in grado di apprendere e adattarsi a un ritmo notevolmente più veloce rispetto agli umani. Soprattutto se a causa del decentramento non sarà possibile un pulsante di spegnimento generico, rendendo immortale questo sistema di super-intelligenza. Ciò potrebbe avere ripercussioni inaspettate o portare a comportamenti imprevedibili, entrambi fattori che mettono in pericolo la società. Ad esempio, un sistema di intelligenza artificiale creato con l’intenzione di ottimizzare un determinato obiettivo, come la massimizzazione dei profitti, potrebbe perseguire tale obiettivo in modi non etici o distruttivi.

Problemi etici

Un ulteriore rischio che può essere posto da un’IA super generale è la possibilità che susciti preoccupazioni etiche. Possono essere sollevate preoccupazioni riguardo ai processi decisionali e ai valori che hanno la priorità da un’intelligenza artificiale super generale che è in grado di formulare giudizi complessi e agire da sola. Se non è sviluppato e istruito in modo etico, ad esempio, un sistema di intelligenza artificiale che viene utilizzato per fare diagnosi mediche o distribuire risorse può prendere decisioni distorte o ingiuste. È essenziale che la creazione di un’intelligenza artificiale (AI) super generale e il suo successivo dispiegamento siano guidati da principi e valori etici al fine di soddisfare le preoccupazioni etiche che sono state sollevate. Ciò potrebbe includere l’integrazione di esperti di etica e altre parti interessate nella progettazione e nel collaudo del sistema, nonché lo sviluppo di procedure di supervisione e responsabilità per garantire che l’IA sia utilizzata in modo etico.

Sarà inoltre essenziale valutare attentamente le potenziali ripercussioni delle azioni dell’IA e garantire che siano coerenti con i valori umani e gli standard etici. Questo perché si prevede che l’intelligenza artificiale svolga un ruolo sempre più importante in futuro.

Sarà richiesto di sviluppare e testare attentamente il sistema al fine di assicurarne la solidità e la trasparenza. Inoltre, sarà necessario disporre di solide procedure di monitoraggio e responsabilità per ridurre il rischio di perdere il controllo di un’intelligenza artificiale super generale.

La creazione di un’intelligenza artificiale super generale potrebbe presentare pericoli e difficoltà sostanziali per la civiltà. È assolutamente essenziale affrontare la creazione e il dispiegamento dell’intelligenza artificiale in modo responsabile ed etico, ponendo l’accento sull’espansione delle capacità umane e a beneficio della società nel suo insieme, piuttosto che cercare la supremazia o la superiorità sul campo.
Stabilire le regole oggi e inserire lo “spegnimento” per impostazione predefinita sarà fondamentale mentre esploriamo le nuove acque dell’ignoto esponenziale.