ChatGPT come una minaccia per il sistema politico e la democrazia?

Ma al di là della meraviglia sulla possibilità di una sostituzione umana da parte di macchine in forme linguistiche come la poesia e la sceneggiatura, è visibile una minaccia molto più grande: la sostituzione degli esseri umani con l’intelligenza artificiale nei processi democratici, non attraverso il voto, ma attraverso la pressione.

A poche settimane dal suo lancio, l’ app Chat GPT sta già minacciando di stravolgere molte forme della nostra comunicazione quotidiana, come il modo in cui scriviamo e-mail, documenti universitari e innumerevoli altre forme di scrittura.

Progettata dalla società Open AI, l’app è un bot pensato per chattare: può rispondere automaticamente a domande scritte in un modo che spesso si avvicina a un essere umano, nella misura in cui è appena percettibile che sia stato utilizzato.

Ma al di là della meraviglia sulla possibilità di una sostituzione umana da parte di macchine in forme linguistiche come la poesia e la sceneggiatura, è visibile una minaccia molto più grande: la sostituzione degli esseri umani con l’intelligenza artificiale nei processi democratici, non attraverso il voto, ma attraverso la pressione.

GPT Chat può redigere automaticamente i commenti inviati durante il processo legislativo. Può scrivere lettere da pubblicare agli editori sui giornali locali. Può commentare articoli di notizie, post di blog e social media milioni di volte al giorno. Può imitare il lavoro dell’Internet Intelligence Service russo nel suo tentativo di influenzare le elezioni statunitensi del 2016, ma senza richiedere il budget multimilionario riportato e centinaia di dipendenti reclutati per lo scopo.

I commenti generati automaticamente non sono un problema nuovo. Da tempo affrontiamo la minaccia dei bot, ovvero delle macchine che pubblicano automaticamente i contenuti. Si stima che cinque anni fa almeno un milione di commenti generati automaticamente siano stati inviati alla Federal Communications Commission in merito alla legislazione proposta sulla neutralità della rete. Nel 2019, uno studente universitario di Harvard ha pilotato un generatore di testo automatizzato per inviare 1.001 commenti a una consultazione pubblica su un problema sanitario. Allora commentare era solo un gioco di superiorità numerica.

Il pericolo per i membri del Congresso

Da allora le piattaforme sono migliorate nella rimozione di “comportamenti artificiali e non autentici”. Facebook, ad esempio, rimuove ogni anno oltre un miliardo di account falsi. Ma questi tipi di messaggi sono solo l’inizio. Invece di inondare le caselle di posta dei legislatori con messaggi di supporto o controllare il call center del Campidoglio con chiamate automatiche, un sistema di intelligenza artificiale avanzato come l’app GPT Chat e addestrato sui dati relativi a questi processi potrebbe prendere di mira membri del legislatore e persone influenti in condizioni e posizioni critiche al fine di identificare le parti più deboli del processo legislativo e manipolarle spietatamente attraverso l’uso della comunicazione diretta, campagne di pubbliche relazioni, contrattazione o altri mezzi di leva.

Quando noi umani eseguiamo tali azioni, si chiama pressione. Quelli di successo, cioè i migliori lobbisti, combinano precisione nella formulazione e tattiche di mira intelligenti. In questo momento, l’unica cosa che impedisce a un lobbista dotato di Chat GPT di commettere qualcosa che potrebbe essere paragonato a livello discorsivo alla guerra dei droni è la mancanza di un targeting preciso. L’intelligenza artificiale, tuttavia, potrebbe potenzialmente fornire tecniche anche per questo scopo.

Un sistema in grado di interpretare le reti politiche, combinato con le capacità di generazione di testo dell’app, potrebbe identificare il membro del Congresso con il maggior peso su una particolare politica, ad es. tassazione delle imprese o spese militari. Agendo come lobbisti, un tale sistema potrebbe prendere di mira i rappresentanti indecisi della nazione che siedono nei comitati che decidono sulla politica partigiana, quindi concentrare i loro sforzi sui membri del partito al governo quando un disegno di legge viene votato.

Una volta identificati personaggi e strategie, un chatbot come Chat GPT potrebbe generare messaggi di testo da utilizzare in lettere, commenti e ovunque il testo sia utile. I lobbisti potrebbero anche prendere di mira direttamente questi individui, e ciò che conta è la combinazione: i commenti negli articoli e sui social media hanno un potenziale limitato e sapere quali membri della legislatura prendere di mira non è di per sé una condizione di manipolazione capace.

La motivazione per gli attacchi è forte

Questa capacità di comprendere e prendere di mira le persone che operano all’interno di una rete creerebbe uno strumento di hacking dell’IA che sfrutterebbe le vulnerabilità dei sistemi sociali, economici e politici con incredibile velocità e portata. I sistemi legislativi sarebbero un bersaglio particolare perché l’incentivo ad attaccare i sistemi decisionali politici è così forte perché i dati per addestrare tali sistemi sono così ampiamente disponibili e perché l’uso dell’IA può essere così difficile da rilevare, specialmente se usato strategicamente per manipolare le azioni delle persone.

I dati necessari per formulare tali sistemi di targeting strategico sono solo una questione di tempo prima che vengano acquisiti. Le società aperte generalmente si basano sulla trasparenza e la maggior parte dei legislatori è disposta, almeno formalmente, a ricevere e rispondere a messaggi che sembrano essere inviati dalla propria gente.

Forse un sistema di intelligenza artificiale potrebbe rivelare quali membri del Congresso esercitano un’influenza decisiva sulla leadership, ma il cui profilo pubblico è abbastanza basso da non richiedere spesso la loro attenzione. Potrebbe quindi identificare il gruppo di interesse comune con il maggiore impatto sulle posizioni pubbliche di quel membro del legislatore. Forse potrebbe persino calcolare l’entità della donazione necessaria per avere un impatto su un’organizzazione o indirizzare la pubblicità con un messaggio strategico ai suoi membri. Per ogni scopo per cui si tratta di prendere una decisione politica, il pubblico giusto, il messaggio giusto al momento giusto.

Ciò che rende la minaccia rappresentata dai lobbisti armati di intelligenza artificiale maggiore di quella rappresentata dalle costose società di lobbying basate sulla K Street di Washington è la loro capacità di accelerare. I lobbisti attingono a decenni di esperienza per trovare soluzioni strategiche per plasmare con successo l’esito di una decisione politica. Questa esperienza è limitata e quindi costosa.

Più veloce ed economico

Ma in teoria, l’IA potrebbe ottenere lo stesso risultato in modo molto più rapido ed economico. Il vantaggio della velocità iniziale è enorme in un ecosistema in cui l’opinione pubblica e le narrazioni dei media possono essere rapidamente stabilite, oltre che inclini a cambiare rapidamente in risposta a caotici eventi globali.

Inoltre, la flessibilità dell’IA potrebbe aiutare a influenzare contemporaneamente più processi decisionali e diverse giurisdizioni. Immaginate una società di lobbying dotata di intelligenza artificiale che può tentare di introdurre emendamenti a ogni disegno di legge presentato al Congresso degli Stati Uniti, o anche in tutte le legislature statali. Gli influencer in genere operano solo in uno stato perché ci sono variazioni così complesse nelle leggi, nei processi e nella struttura politica. Con l’aiuto dell’intelligenza artificiale può diventare più facile esercitare un’influenza oltre i soliti confini politici.

Proprio come i professori dovranno cambiare il modo in cui conducono gli esami e i compiti degli studenti alla luce dei cambiamenti apportati da Chat GPT, così i governi dovranno cambiare il modo in cui si relazionano con i lobbisti.

Indubbiamente, ci possono essere benefici di questa tecnologia per l’ambiente della democrazia, con una maggiore accessibilità. Un lobbista esperto non può essere pagato da tutti, ma un software per accedere a un sistema di intelligenza artificiale potrebbe essere a disposizione di tutti. Se siamo fortunati, forse questo tipo di IA strategica potrebbe rinvigorire la democratizzazione della democrazia stessa, conferendo questo tipo di influenza ai cittadini più vulnerabili.

Tuttavia, è probabile che le istituzioni più grandi e potenti utilizzino qualsiasi tecnica di intelligenza artificiale per esercitare la propria influenza nel modo più efficace. Dopotutto, ottenere la migliore strategia di lobbying richiede ancora persone nel sistema, persone che possono attraversare i corridoi del potere legislativo e del denaro. Influenzare non significa solo inviare il messaggio giusto alla persona giusta al momento giusto. E mentre un bot con la capacità di produrre discorsi può identificare chi dovrebbe essere il destinatario di queste campagne di influencer, per il prossimo futuro chi dovrà pagare per questo sono gli umani. Quindi, sebbene sia impossibile prevedere come sarà un futuro pieno di lobbisti con armi di intelligenza artificiale, probabilmente aumenterà ancora di più l’influenza e il potere di coloro che già le possiedono.

 

Fonte: NYT, 16-01-2023