La democrazia messa alla prova dall’intelligenza artificiale

 

In un mondo digitale dominato dall’intelligenza artificiale generativa, la diversità e l’affidabilità delle opinioni sono a rischio. Poiché gli algoritmi rafforzano i contenuti stereotipati e portano a una pericolosa standardizzazione, appare fondamentale reinventare i sistemi di raccomandazione per favorire la qualità e le prospettive dei cittadini, preservando così il nostro spazio mediatico come un vero bastione della democrazia.

Giovedì 15 febbraio 2024 la società OpenAI ha annunciato l’imminente arrivo di Sora, un nuovo software in grado di generare automaticamente video ultrarealistici in base a comandi scritti. Questo annuncio faceva seguito alla distribuzione massiccia, un anno prima e da parte della stessa azienda, del dispositivo chiamato ChatGPT, un software di generazione automatica di testo che combina modelli linguistici di grandi dimensioni come GPT-3 o GPT-4 con un’interfaccia interattiva che consente agli utenti di produrre automaticamente testi altamente standardizzati. testi che assomigliano a testi scritti da esseri umani. Da quasi due anni, lo straordinario sviluppo delle cosiddette “intelligenze artificiali generative” promette di trasformare profondamente lo spazio dei media digitali, in cui oggi circolano informazioni e contenuti culturali.

Infatti, contrariamente a quanto indica il loro nome, le “intelligenze artificiali generative” costituiscono automi computazionali e statistici volti a prevedere e produrre le sequenze più probabili di segni o pixel in base alle richieste effettuate. Ogni contenuto improbabile, originale o singolare viene quindi eliminato perché i calcoli probabilistici degli algoritmi non tengono conto delle espressioni idiomatiche, originali e inaspettate, scarsamente rappresentate nella massa di dati, e che scompaiono nelle medie una volta completati i calcoli. Le espressioni della maggioranza vengono quindi rafforzate a scapito della diversità – da qui l’amplificazione di alcuni pregiudizi e pregiudizi (razzisti, omofobi, sessisti, ecc.) nei testi e nelle immagini generati automaticamente, che il più delle volte sembrano molto stereotipati.

Tutto accade come se il mito della “singolarità tecnologica” mascherasse l’eliminazione sistemica delle singolarità attraverso calcoli statistici su quantità massicce di dati, anche se sono proprio tali singolarità che sono all’origine del rinnovamento delle culture e dell’evoluzione delle società. Che si tratti di conoscenze teoriche, scientifiche, artistiche, pratiche, tecniche, sportive, ecc., la novità, quando emerge in un dato ambito culturale, sembra sempre produrre una deviazione dalla norma o dalla media andando contro i pregiudizi dominanti.

Eliminando sistematicamente ogni germe di novità, è proprio il rinnovamento culturale che gli automi computazionali tendono a minacciare. Tanto più che i testi generati automaticamente diventeranno presto dominanti sul Web: integreranno infatti i dati di addestramento degli algoritmi, che effettueranno i loro calcoli probabilistici su testi già prodotti automaticamente. Questa probabilità quadrata non può che portare a un’omogeneizzazione e a una progressiva standardizzazione dei contenuti generati online: con quali tipologie di testi avremo a che fare quando i chatbot si citano a vicenda in maniera autoreferenziale , ripetendo in loop le proprie artificiose sciocchezze?

Oltre a questo primo rischio di progressiva distruzione della diversità culturale online, i dispositivi per la generazione automatica di testi, immagini o video consentono anche e soprattutto di generare informazioni false in quantità industriali e in modo perfettamente indistinguibili dalle informazioni certificate. Permettono inoltre di fornire quantità industriali di account falsi, che vengono poi utilizzati per questo o quel contenuto per accumulare visualizzazioni, per essere amplificati viralmente da algoritmi di raccomandazione automatica, che promuovono sistematicamente i contenuti più cliccati. Infatti, i principali social network progettati dalle aziende della Silicon Valley basano i loro modelli di business sulla cattura dell’attenzione e sulla raccolta di dati , che vengono entrambi venduti agli inserzionisti o agli inserzionisti per un targeting personalizzato, che può essere utilizzato per il marketing e la pubblicità di determinate aziende così come per la propaganda politica di alcuni governi o partiti.

Per “massimizzare il coinvolgimento degli utenti” e garantire che gli utenti rimangano connessi ai loro servizi il più a lungo possibile, i giganti digitali si affidano ad algoritmi di raccomandazione automatica, che consentono di suggerire contenuti agli utenti anche in base ai loro comportamenti e preferenze passati, come amplificare i contenuti più “piaciuti” o più “seguiti”, anche se ciò implicherebbe il rafforzamento delle tendenze gredenziali o mimetiche. Spesso, infatti, i contenuti più virali sono anche i più brevi, i più provocatori, i più scioccanti o i più violenti, che scatenano reazioni immediate (di indignazione o di entusiasmo) spingendo così gli utenti a reagire in modo compulsivo e a restare in rete più a lungo. Si privilegia quindi questa tipologia di contenuti a scapito di contenuti più lunghi, più complessi, più approfonditi e più sfumati, che richiedono maggiore attenzione e interpretazione a lungo termine, che non si convertono direttamente in profitto per alimentare il “ business dell’odio  ”. ”

〈Non c’è nulla di democratico nello spazio digitale oggi.〉

Questi meccanismi algoritmici sono al centro delle strategie dei leader nazionalisti e autoritari, le cui squadre di spin doctor e data scientist, esperti di comunicazione digitale e astroturfing, approfittano della raccomandazione automatica per affermarsi nell’arena politica: che sia l’affare Facebook-Cambridge Analytica del 2016, durante il quale i dati di 87 milioni di cittadini americani furono risucchiati, venduti e utilizzati dal comitato elettorale di Donald Trump per influenzare gli elettori, sia dalla società di e-commerce Casaleggio Associati che dai marketer digitali dietro dell’ascesa del Movimento Cinque Stelle in Italia o che si tratti delle migliaia di account Twitter falsi creati dal team elettorale di Eric Zemmour durante le elezioni presidenziali francesi del 2022, le reti digitali tendono a diventare “un’arma  di distruzione di massa delle nostre democrazie ” come ha suggerito il sindaco di Parigi nel novembre 2023.

Infatti, contrariamente alle promesse iniziali del Web, creato per realizzare ideali di apertura, libertà e orizzontalità, lo spazio digitale oggi non ha più nulla di democratico. Se tutti restano ancora liberi di esprimersi o pubblicare, sono le aziende proprietarie dei social network a decidere sulla visibilità o invisibilità dei contenuti, attraverso i loro algoritmi di raccomandazione sviluppati nella più totale opacità. L’apparenza del decentramento e dell’orizzontalità maschera un’estrema centralizzazione o un’estrema verticalità, che diventa tanto più potente quanto più a lungo rimane nascosta.

Può lo spazio digitale costituire uno spazio democratico in tali condizioni? È legittimo lasciare unicamente alle aziende private la decisione su cosa vedere o cosa rendere invisibile, quando noi pretendiamo di difendere le libertà di espressione e di pensiero? Che senso ha avere il diritto di esprimersi nello spazio pubblico digitale se ciò che si esprime è immediatamente invisibile? L’amplificazione dei contenuti più seguiti o più apprezzati può fungere da criterio di scelta universale, soprattutto quando i contenuti possono essere prodotti automaticamente e quando i clic possono provenire da falsi account robotici?

Con l’arrivo sul mercato dell’“intelligenza artificiale generativa”, la questione sarà sempre meno quella della produzione o moderazione dei contenuti, ormai generati in massa e in maniera automatizzata, ma sempre più quella della selezione dei contenuti prodotti e pubblicati : se vogliamo avere una possibilità di orientarci nel futuro ambiente informativo, dobbiamo garantire che i contenuti ritenuti rilevanti siano quelli più visti, altrimenti non passerà molto tempo prima che il sovraccarico (dis)informativo distrugga per sempre l’ideale di condivisione della conoscenza che è all’origine del web.

L’alternativa che ci si presenta oggi non consiste nel chiedersi se saranno gli esseri umani o le macchine a produrre i testi e le immagini di domani (questa domanda non ha senso, poiché i due sono sempre coinvolti nella produzione di contenuti digitali), ma chiederci se vogliamo che contenuti selezionati dalla massa siano scelti secondo gli interessi di un pugno di attori privati ​​(a scapito della salute psicologica degli individui e delle società di dibattito pubblico) o secondo le valutazioni diversificate dei cittadini, che potranno così esercitare una nuova forma di cittadinanza, partecipando alla strutturazione dei propri spazi informativi quotidiani.

Per fare ciò è sufficiente dare ai cittadini il potere di agire sulla base di algoritmi di raccomandazione, collegandoli con interpretazioni, valutazioni e giudizi umani. Si tratta di invertire la tendenza: invece di lasciare agli algoritmi di poche aziende private il potere di guidare a distanza le scelte dei cittadini, sembra necessario dare ai cittadini la possibilità di influenzare le raccomandazioni algoritmiche per promuovere i contenuti che sembrano più appropriati a loro.

Questo passaggio dalla raccomandazione automatica e privata (basata sulle scelte delle aziende e sulla quantificazione delle opinioni) alla raccomandazione ermeneutica e cittadina (basata sulle interpretazioni dei cittadini e sulla qualità dei contenuti) è del tutto possibile. Lo dimostra il lavoro dell’associazione Tournesol , presieduta da Lê Nguyen Hoang, matematico e specialista in sicurezza informatica, che offre una piattaforma collaborativa di video raccomandazioni: si tratta di costruire un algoritmo di raccomandazione che non si basa su criteri quantitativi e mimetici, ma sulle valutazioni e contributi dei cittadini, che hanno visionato i contenuti e che li valutano in base alla loro pubblica utilità (chiarezza e attendibilità delle informazioni proposte, pertinenza e importanza dell’argomento trattato, certificazione del/i produttore/i o autore/i), eccetera.).

〈Esistono strumenti per sfidare l’egemonia delle piattaforme.〉

Da quel momento in poi, la raccomandazione non viene più fatta solo in base alla quantità di opinioni, vale a dire in base agli interessi finanziari dei proprietari delle reti o agli obiettivi elettorali di questo o quel partito, ma in base ai giudizi dei cittadini sulla base di criteri espliciti e condivisi. Diventa molto probabile che verranno raccomandati contenuti più impegnativi, di migliore provenienza, più originali o più sfumati, perché gli individui e i gruppi che votano non hanno interesse a “massimizzare il coinvolgimento” degli utenti, a catturare la loro attenzione o a raccogliere i loro dati. Con tali algoritmi di raccomandazione qualitativa, i creatori di contenuti, da parte loro, non sarebbero obbligati a conformarsi a formati stereotipati: potrebbero sperimentare nuove formule e osare essere originali, mirando al gusto e all’intelligenza del pubblico, e non solo ai calcoli statistici La questione che si pone, quindi, è come forzare le piattaforme e i social network dominanti ad aprirsi a questo tipo di sistemi di raccomandazione algoritmica qualitativa, basata sulle interpretazioni e sulle valutazioni dei cittadini – che li costringerebbe a rinunciare alla loro egemonia sulla funzione di raccomandazione. È proprio questo l’obiettivo dello “unbundling” dei social network, che oggi chiedono molti attori della società civile (ONG, associazioni, organizzazioni, ricercatori, ecc.), tra cui Maria Luisa Stasi , direttrice “Law & Policy dei mercati digitali” ” presso la ONG Articolo 19 , nonché il Consiglio Nazionale del Digitale, in una recente nota pubblica.

L’unbundling dei social media comporta la sfida all’egemonia delle piattaforme su tutte le funzioni e i servizi che raggruppano e l’affermazione del diritto di altre società o altri enti ad assumere alcune di queste funzioni o a fornire altri servizi implementando i loro sistemi sulle piattaforme stesse. Se entrasse in vigore la disaggregazione, i social network come Facebook, TikTok o Twitter sarebbero obbligati ad aprirsi ad applicazioni, servizi e attori esterni per garantire determinate funzioni, in particolare la raccomandazione. Gli utenti potrebbero così scegliere tra diversi sistemi di raccomandazione quelli che sembrano loro più rilevanti: se alcuni volessero abbandonarsi agli algoritmi di TikTok o Twitter, perché no, ma non tutti sarebbero obbligati a rispettare questa scelta, alcuni potrebbero preferire affidarsi su altre terze parti fidate più rilevanti, ad esempio media, istituzioni, associazioni o gruppi di ricercatori o dilettanti che sviluppano i propri sistemi di raccomandazione unici basati su criteri spiegati.

L’unbundling dei social network darebbe inoltre agli utenti la possibilità di sapere chi consiglia loro cosa e perché (secondo quali criteri): in un contesto in cui l’intelligenza artificiale generativa sfuma i confini tra falso e vero e costringe a diffidare di tutti i contenuti ricevuti, tali sistemi permetterebbero di ricreare la certificazione e il credito nello spazio digitale. Gli utenti potrebbero ancora una volta fidarsi dei contenuti loro consigliati, perché saprebbero che sono stati valutati e scelti in base a determinati criteri da gruppi di pari.

Se la raccomandazione dei cittadini è ancora agli inizi, diversi social network hanno già optato per l’unbundling: è il caso di Bluesky (il social network alternativo creato da Jack Dorsey, allora fondatore di Twitter) o Mastodon (il social network gratuito, distribuito e decentralizzato all’interno del Fediverso). Su queste reti la funzione di raccomandazione può essere fornita da applicazioni di terze parti o addirittura configurata dagli utenti. Come ricorda Jean Cattan, segretario generale del Consiglio nazionale digitale , “su Bluesky, gli utenti più esperti, i media o altre terze parti fidate possono offrire a tutti gli utenti algoritmi di raccomandazione propri”, mentre su Mastodon, “il principio stesso del software libero consente all’amministratore e all’utente di sviluppare le funzionalità di content curation che desiderano”. Non sorprende che tali reti non abbiano gli stessi effetti dannosi sulla mente dei loro utenti e non contribuiscano alla diffusione di informazioni false o alla polarizzazione delle opinioni: perché non costringere gli altri a seguire l’esempio e a trasformarsi?

Tale trasformazione appare infatti necessaria, se non vogliamo lasciare che il sovraccarico (dis)informativo distrugga per sempre l’ideale di condivisione della conoscenza che è all’origine del web e i principi di libertà di espressione e di opinione che sono alla base delle nostre democrazie.. Solo le prospettive della raccomandazione collaborativa e dell’unbundling dei social network possono oggi rendere possibile l’implementazione concreta di questi principi nelle architetture digitali. Le attuali normative a livello europeo (DMA e DSA) lo rendono possibile e la recente risoluzione del Parlamento Europeo che invita ad agire contro le “ interfacce che creano dipendenza” ci invita a farlo.

Queste due leve costituiscono anche il mezzo migliore per lottare efficacemente contro i disastri psicologici e politici che costituiscono l’economia dell’attenzione e l’industria della disinformazione, senza cadere nella trappola della censura o nel pio desiderio della moderazione. Infine, lungi dal rappresentare ideali utopici, la raccomandazione dei cittadini e la disaggregazione delle reti sociali costituiscono la traduzione, nel campo delle tecnologie digitali, del servizio pubblico audiovisivo (che consente di promuovere sui canali pubblici contenuti ritenuti non redditizi dai canali privati). e l’unbundling della rete telefonica (che apre la rete telefonica ai servizi concorrenti).

Furono tali misure che permisero alle democrazie liberali di adottare le nuove tecnologie dell’informazione e della comunicazione che costituivano all’epoca i media audiovisivi e le reti telefoniche. Le reti digitali realizzano la convergenza tra audiovisivo e telecomunicazioni: sarebbe quindi opportuno applicare ad esse i principi che abbiamo applicato all’informazione televisiva e alle telecomunicazioni, se non vogliamo abbandonarle nelle mani degli “  ingegneri del caos  ”. Poiché l’“intelligenza artificiale generativa” minaccia di dare potere all’industria della disinformazione e all’economia dei dati, è tempo di implementare le libertà di espressione e di pensiero nell’architettura delle reti digitali, per salvare la vita democratica.

Autrice

Anne Alombert è docente di filosofia contemporanea all’Università di Parigi 8 e membro del Consiglio Nazionale del Digitale. La sua ricerca si concentra sulla questione dei rapporti tra vita, tecnologia e spirito nella storia della filosofia, in particolare nel pensiero di Gilbert Simondon, Jacques Derrida e Bernard Stiegler. Il suo lavoro mette in discussione anche le questioni antropologiche e politiche delle trasformazioni tecnologiche contemporanee. Ha contribuito all’opera collettiva Bifurquer, coordinata nel 2020 da Bernard Stiegler.
È autrice di Pensare all’uomo e alla tecnologia. Simondon e Derrida dopo la metafisica, Edizioni ENS, 2023; Schizofrenia digitale, edizioni Allia, 2023 e La capitale che non sono! Mettere l’economia e la tecnologia digitale al servizio del futuro (con Gaël Giraud), edizioni Fayard, 2024.
Fa parte del collettivo di ricerca Organoesis .
Fonte: AOCmedia