Il grande incendio che ha devastato Los Angeles lo scorso gennaio era appena stato spento, quando il sogno californiano ha rilanciato la sua egemonia culturale grazie all’ormai inconfondibile intelligenza artificiale. L’asta è iniziata! 500 miliardi qui, 200 miliardi là. Il denaro magico scorre liberamente nei mercati in delirio, proprio nel momento in cui i debiti aumentano vertiginosamente e il populismo di estrema destra si sta metastatizzando negli Stati Uniti e in Europa. Ogni Paese cerca di attrarre investitori a modo suo. La Francia punta a essere all’avanguardia in questo campo con l’AI Action Summit che si è tenuta a Parigi dal 10 al 11 febbraio.
Ma cosa significa questo entusiasmo per una tecnologia che troppo spesso – come l’amore lacaniano – dà qualcosa che non ha a qualcuno che non lo vuole? È importante chiedersi perché ci sia tanta frenesia, quando alcuni specialisti stimano il tasso di fallimento dell’implementazione dell’IA nelle organizzazioni all’80% [1] . La RAND Corporation afferma addirittura che una parte significativa del problema deriva dal fatto che con l’intelligenza artificiale facciamo promesse insostenibili e che questa tecnologia soddisfa solo troppo raramente esigenze concrete [2] . Allora, che cos’è questo cattivo amore per noi stessi, chiamato a sconvolgere il 60% dei posti di lavoro nei paesi sviluppati [3] , per un guadagno complessivo di produttività previsto del 10%? Qual è il fondamento del miracolo (miraggio) dell’intelligenza artificiale?
La Martingala dell’IA
Riassumiamo. Il metaverso e la Silicon Valley Bank crollano nel marzo 2023, nello stesso momento in cui viene annunciata la rivoluzione LLM (Large Language Models) che infiammerà i mercati con l’introduzione di ChatGPT in prima linea. Mentre il debito pubblico degli Stati Uniti sale alle stelle e si prevede che supererà la soglia dei 40 trilioni di dollari entro il 2027, l’amministrazione Trump sta lanciando StarGate con un investimento di 500 miliardi di dollari nell’intelligenza artificiale, riducendo drasticamente la spesa pubblica e gli aiuti umanitari internazionali. La Francia, che sta vivendo un’impennata vertiginosa del debito e del deficit di bilancio, ci promette un miracolo: 109 miliardi di euro per sviluppare l’intelligenza artificiale con l’installazione di 35 data center che saranno collegati alle nostre centrali nucleari, mentre allo stesso tempo il governo taglia drasticamente i budget per l’ecologia, l’istruzione, la sanità, la ricerca e la cultura.
Bisogna dire che la speranza calcolata nell’intelligenza artificiale è così grande che supera di gran lunga il rischio di rovina, che respinge ogni critica con grandi annunci, che schiaccia ogni opposizione. Sebbene la possibilità che la bolla scoppi sia molto concreta, la martingala dell’intelligenza artificiale appare ai leader mondiali come la soluzione migliore per estinguere i debiti sulla base di una speranza incommensurabile. Questa è una strategia classica. Del resto, chiunque soffra di dipendenza dal gioco d’azzardo nutre segretamente questo tipo di speranza. Il giocatore inizia scommettendo 1€; se perde punta 2€; se perde di nuovo punta 4€; se perde ancora punta 8€; e ciò in maniera esponenziale, raddoppiando la sua posta fino alla rovina o fino a intascare il jackpot tanto atteso che cancellerà i suoi debiti. Come ha sottolineato il filosofo pragmatico Charles S. Peirce, giocando a questo gioco “ci imbattiamo in un famoso paradosso secondo cui, sebbene il giocatore sia destinato certamente alla rovina, il valore della sua aspettativa calcolata (…) è immenso [4] .”
Per rimanere aggiornato e sostenerci
Giocando al gioco della martingala sui mercati, dimentichiamo quasi le esternalità negative che hanno un impatto sulle condizioni reali dell’economia politica; in un mondo in cui le nostre vite e le nostre attività sono minacciate dal cambiamento climatico e dalla crescente disuguaglianza. La corsa all’IA potrebbe infatti generare una svalutazione delle nostre attività contestualmente ad un aumento esponenziale della spesa energetica attraverso la moltiplicazione degli impieghi in tutti gli ambiti [5] . Uno studio di McKinsey & Company [6] stima che l’alimentazione elettrica dei data center degli Stati Uniti potrebbe così aumentare dal 3,7% all’11,7% della spesa energetica del Paese entro il 2030, mentre il Lawrence Berkeley National Laboratory [7] annuncia che raggiungerà il 12% entro il 2027. Con il “drill baby drill !” Il piano di Trump, lo sviluppo di questi data center alimentati a combustibili fossili (l’80% di essi) costituisce un colpo di grazia all’ambiente. E anche se collegassimo le nostre IA alle centrali nucleari in Francia, tale crescita avrebbe comunque un impatto dannoso.
Mi sembra quindi urgente dissipare la cortina fumogena e le promesse insostenibili. Perché, come previsto, la corsa all’intelligenza artificiale non farà che esacerbare l’aumento delle disuguaglianze, il populismo di estrema destra, le tensioni geopolitiche, polarizzando al contempo la ricchezza sempre di più nelle mani di una minoranza di azionisti offshore . La martingala dell’IA ha ingaggiato una battaglia contro l’intelligenza collettiva e la società civile sognando di raggiungere un’IA generale o forte (irrealizzabile allo stato attuale delle nostre conoscenze). Ha infranto il contratto sociale espropriando e sfruttando la proprietà intellettuale e la nostra scelta sociale per un mondo sostenibile. In cosa consiste dunque questo processo in cui siamo inconsapevolmente coinvolti? Come evitare il disastro?
Estensione del dominio cognitivo della lotta
Con l’avvento del lavoro in rete connesso tramite computer, l’aumento della capitalizzazione della conoscenza ha assunto una dimensione predominante sul mercato attraverso la cattura di asset immateriali [8] . A partire dagli anni 2000, pensatori come Yann Moulier Boutang [9] hanno analizzato la svolta, ormai in atto, del capitalismo cognitivo. Secondo quest’ultima, mentre le iperstrutture industriali estraevano il surplus di lavoro dagli sforzi muscolari non retribuiti dei lavoratori, il capitalismo cognitivo estrae attualmente il surplus di “immateriali” generati dalla nostra attività cerebrale in rete. Infatti, ciò che conta nel mercato odierno sono gli intangibili, cioè tutto ciò che riguarda la conoscenza, sia essa formale o informale. Quando si acquista un capo di abbigliamento da 100 €, il cui costo di produzione è di 2 € e quello di spedizione di 3 €, il 95% del prezzo è immateriale, ovvero non è una questione di materiale, ma di simbolo, di moda, di stile, di inventiva, di innovazione o di tendenza. Questo è ciò che influisce sulla bilancia del valore di scambio. Il resto è marginale.
Per comprendere appieno ciò che ci viene espropriato, dobbiamo, come sottolinea Yann Moulier Boutang, distinguere due tipi di beni immateriali: i beni immateriali “1” protetti dalla legge sulla proprietà intellettuale (come il diritto d’autore e i brevetti) e i beni immateriali “2” (attenzione, interpretazione, contestualizzazione, inventiva, creatività, ecc.) che sfuggono alla tutela formale della legge. È grazie a questo vuoto giuridico che i giganti digitali sono riusciti ad assumere posizioni dominanti sul mercato. I beni immateriali “2”, prodotti costantemente dalla nostra attività online (like, commenti, pubblicazioni, clic, post, capacità di attenzione, ecc.), sono da diversi decenni oggetto di espropriazione da parte dei giganti digitali. Conservandole nei data center e sfruttandole tramite l’intelligenza artificiale, i giganti digitali sono riusciti a raggiungere la vetta del mercato globale della conoscenza; dando così inizio ad una prima violazione del contratto sociale.
La tutela della proprietà privata non è più concretamente garantita. La nostra proprietà intellettuale sotto forma di dati viene costantemente espropriata. Capitalizzando sulle attività cognitive non protette da copyright, i giganti digitali hanno modificato il sistema operativo per svalutarci meglio. Nell’attuale sistema digitale è chiaro che tutto ciò che può essere archiviato nei data center viene o verrà archiviato per essere sfruttato dalla nostra intelligenza artificiale. Questo è il nuovo credo del capitalismo cognitivo. Inoltre, tutto ciò che non è protetto da copyright e proprietà intellettuale può, in linea di principio, esserti rubato sotto forma di dati per svalutarti ulteriormente.
È probabile che una larga parte dei dipendenti diventi membro del cognitariato [10] . Una volta che il tuo compagno algoritmico si siederà accanto a te sul tuo computer, la velocità aumenterà, ma il tuo valore aggiunto diminuirà. È ormai evidente a qualsiasi lavoratore, indipendentemente dalle sue qualifiche: l’intelligenza artificiale, così come concepita dai giganti digitali, si basa sul furto della nostra attività cognitiva e su una diffusa svalutazione delle attività umane non protette da copyright. Che ironia! Mentre i libertari della Silicon Valley denunciano a gran voce le tasse federali, che considerano una forma di schiavitù – alla maniera di Robert Nozick [11] – questi ultimi ci sfruttano impunemente catturando l’attività dei nostri cervelli connessi per stabilire il loro imperialismo digitale.
Sfruttamento di livello 2
Ti offriamo strumenti e utilizzi di cui non potrai più fare a meno, accetti le condizioni d’uso e noi sfruttiamo il tuo tempo cerebrale disponibile, la tua intelligenza. La cattura delle nostre attività online favorisce quindi l’accumulo di plusvalore, cioè di lavoro cognitivo non retribuito. Questo processo ha già dato origine a nuove e indesiderate forme di lavoro: (1) il lavoro on-demand uberizzato, (2) il microlavoro che migliora gli algoritmi dell’intelligenza artificiale, (3) il lavoro sociale in rete degli influencer, (4) il lavoro basato sull’utente al di fuori del lavoro [12] e (5) il lavoro creativo assistito dall’intelligenza artificiale. In tutti questi casi di sfruttamento, possiamo osservare lo stesso schema di cattura delle attività degli individui attraverso i dati vengono espropriati. Ma non è tutto. Questo meccanismo di cattura innesca un processo di svalutazione dell’attività stessa del lavoratore. La raccolta di beni immateriali “2” non protetti da proprietà intellettuale è la strada aperta alla riduzione del personale e degli stipendi.
(1) Nel lavoro on-demand uberizzato, c’è sfruttamento sul lavoro che si manifesta attraverso lo status sociale inferiore dei lavoratori. Ciò che è stato chiamato Uberizzazione caratterizza un processo di svalutazione del lavoro esogeno, cioè delle persone appartenenti a minoranze etniche o dei lavoratori stranieri in regime di lavoro autonomo, le cui condizioni di sfruttamento, esterne al diritto classico del lavoro subordinato, sfruttano la loro vulnerabilità; troviamo anche diverse sottoclassi di persone uberizzate. Questa inferiorità favorisce quindi un doppio sfruttamento da parte di Uber. In primo luogo, esiste uno sfruttamento di livello 1 che estorce il 30% dei ricavi per l’utilizzo della piattaforma, uno sfruttamento di livello 2 che ruba l’attività cognitiva del conducente per sostituirlo infine con un’auto autonoma [13] .

https://www.asterios.it/catalogo/manuale-intergalattico
Il degrado non finisce qui. Come mostra il recente documentario The Sacrifices of AI , addestrare l’IA richiede un micro-lavoro che consiste nell’etichettare immagini o verificare dati in condizioni di sfruttamento che equivalgono a un puro e semplice maltrattamento. Il prototipo è la piattaforma Mechanical Turk di Amazon. Il suo obiettivo è migliorare gli algoritmi utilizzando i Turker, un “esercito di riserva” la cui tariffa oraria media è di 2 dollari. La piattaforma sostiene di consentire alle famiglie povere di ottenere un’integrazione alla fine del mese. Ma costituisce anche un percettore di reddito esogeno limitato, in particolare in India, dove si trova circa il 19% dei turker [14] . La parte peggiore di tutto questo è l’abuso cognitivo dei dipendenti. Quando sappiamo che vengono utilizzati, ad esempio, per identificare video o foto di stupri, addestrare l’intelligenza artificiale diventa nauseante.
Con (3) il lavoro sociale in rete, prende forma la visione più chiara dell’autoimprenditorialità. Ci pavoneggiamo su LinkedIn, promuovendo le nostre promozioni e attività. Anche se apparentemente siamo arricchiti dal gioco della visibilità, la nostra influenza sulla rete viene rubata per indirizzare meglio raccomandazioni e pubblico. E gli influencer non vengono risparmiati. La loro economia ha una durata limitata. Influencer basati sull’intelligenza artificiale come Lil Miquela, che realizza pubblicità per Calvin Klein e Prada e ha oltre 3 milioni di follower su TikTok, presto li sostituiranno sulle piattaforme. Ma in questo sistema siamo noi stessi sotto controllo. Perché l’influenza si alimenta del (4) lavoro extra-lavorativo che svolgiamo, tu ed io, senza saperlo, cliccando, navigando in rete, divertendoci, condividendo i nostri dati personali, guardando video o scrivendo. Questo insidioso sfruttamento della nostra attività cognitiva è diventato la forma di espropriazione più comunemente accettata; la nostra nuova servitù volontaria, che significa che “quando è gratis, il prodotto sei tu (beh, l’attività del tuo cervello)”.

Più recentemente, con l’emergere dell’IA LLM, abbiamo assistito all’emergere di uno sfruttamento focalizzato sul (5) lavoro creativo o emancipatorio. Lo sciopero degli sceneggiatori della Writers Guild of America del 2023 ne è la prova. Il capitalismo cognitivo avanzato ibrida sempre più l’intelligenza umana con l’elaborazione delle macchine per catturare l’attività cerebrale e produrre contenuti per noi. Si tratta fondamentalmente di un gioco di inganni che non fa altro che saccheggiare il copyright e la proprietà intellettuale proponendo nuovi usi o applicazioni per i nostri computer. Creando una dipendenza dai motori di intelligenza artificiale generativa, stiamo creando un monopolio per i giganti digitali sul lavoro in rete, espropriando allo stesso tempo la proprietà intellettuale delle professioni creative. Autori, sceneggiatori, montatori cinematografici, stilisti, architetti, fotografi, traduttori, musicisti, compositori ecc. che utilizzano l’intelligenza artificiale alimentano inconsapevolmente lo strumento della loro svalutazione, fino al punto di annullare gradualmente se stessi. Per quanto riguarda i grandi quotidiani, stringendo accordi con i giganti digitali per sopravvivere, la loro indipendenza viene compromessa. Questo “contropotere” del passato accompagna quindi sempre più il processo di trasformazione reazionaria di una parte della società in balia della nuova internazionale populista di estrema destra.
La peste bruna 2.0
È un fatto ben noto che la raccolta di dati da circa 87 milioni di account utente Facebook, rubata da Cambridge Analytica, ha contribuito a influenzare il voto per la Brexit e l’elezione di Donald Trump e Jair Bolsonaro. Ma cosa è stato fatto per contrastare questa interferenza? Il diritto europeo sembra impotente di fronte a questa piaga e, anche se l’AI Act e il Digital Service Act aprono una dinamica giuridica di opposizione che deve essere incoraggiata e rafforzata, le prossime elezioni in Europa promettono di essere pericolose. Lo sfruttamento dei dati personali da parte di Cambridge Analytica ha già rivelato al mondo il potere reazionario dell’intelligenza artificiale, nonché la fragilità delle nostre istituzioni democratiche. L’algoritmo predittivo di Cambridge Analytica, che all’epoca identificò gli elettori target per le elezioni presidenziali statunitensi del 2016, sfruttò a suo vantaggio l’amplificazione degli effetti negativi da camera di risonanza dei contenuti che circolavano sui social media. Questa macchina psicologica, utilizzata da Steve Bannon, allora consigliere di Trump, portò quindi all’introduzione di un nuovo modo di orientare il voto a favore dell’estrema destra populista internazionale.
https://www.asterios.it/catalogo/lo-stato-dellunione-europea
Ora che Elon Musk è al comando, con più del doppio dei follower e il controllo del social network X, l’ascesa al potere dell’estrema destra è diventata un progetto politico alimentato da una tecnologia di cui bisogna diffidare come della peste. Le raccomandazioni algoritmiche, i bot e l’intelligenza artificiale Grok che alimentano X ci offrono uno scorcio delle pratiche di interferenza nelle elezioni in Europa, dalle quali il Digital Service Act purtroppo ci offre una protezione troppo scarsa; anche se le procedure sono in corso [15] . Tuttavia, mentre Cambridge Analytica, controllata da Steve Bannon, metteva in atto strategie per influenzare le fasi decisive del voto tramite fake news e altri meme diffusi da bot per invogliare il voto a favore della Brexit, Trump e Bolsonaro, la X di Musk, sostenuta dal governo americano, ha lanciato una vera e propria “guerra culturale contro l’Europa” dichiarata apertamente dal vicepresidente americano J.D. Vance. Si tratta di un vero banco di prova per l’AI Act e il DSA. Saremo all’altezza della situazione? La solidità delle nostre società democratiche sarà in grado di resistere all’influenza esercitata da queste tecnologie? Dovremmo tollerare l’influenza digitale dei partiti di estrema destra che fanno largo uso di queste tecnologie per consolidare il loro potere? Come può l’Europa affrontare questa situazione?
Uscire dall’illusione dell’intelligenza artificiale
Nel mio ultimo libro, Ni dieu ni IA, scommetto che possiamo inventare nuovi accordi emancipatori con l’IA; Dobbiamo ancora darci i mezzi e, soprattutto, sventare i paradossi pragmatici in cui ci stiamo imbarcando. Oltre alle riflessioni che mobilito nel libro sulla riforma della scelta sociale (considerando in particolare l’interesse del modello di giudizio maggioritario di Michel Balinski e Rida Laraki [16] a preservare i principi di universalità, unanimità, indipendenza e non dittatura del voto democratico), mi sembra oggi essenziale incoraggiare il rafforzamento degli organismi europei contro l’ascesa dei nazionalismi high tech. Contro la disintegrazione del contratto sociale in termini di proprietà intellettuale e di scelta sociale nel voto, il federalismo europeo, e in particolare l’Europarlamento, ha un ruolo storico da svolgere.

Per il momento possiamo essere soddisfatti del ponte creato tra la legge sull’intelligenza artificiale e la DSA, che ci consente di porre la prima pietra nell’edificio della regolamentazione dell’intelligenza artificiale in Europa, controllando l’intelligenza artificiale ad alto rischio e i contenuti tenendo conto del loro impatto sistemico . Ma tra il diritto astratto e la sua applicazione, una serie di problemi pragmatici potranno essere risolti solo a lungo termine, sulla base di un lavoro meticoloso della giurisprudenza, capace di metterci al riparo dal rischio di ingerenze straniere che attualmente grava sulle elezioni in Europa. Ma purtroppo forse sarà troppo tardi. Dobbiamo quindi fin d’ora permetterci di anticipare, allontanandoci dai principi eccessivamente astratti della gerarchia dell’IA e promuovendo una legislazione sugli accordi tra esseri umani e IA. In questo senso, mi sembra fondamentale allontanarci dalla logica del guadagno sperato di un’IA forte o generale del tutto ipotetica, che ci conduce verso un futuro ecologicamente insostenibile. Contro il sogno americano di un’intelligenza artificiale che trascende le leggi del pensiero (che è pura fantasia), dobbiamo incoraggiare il discernimento tra ciò che è necessario preservare nell’attività umana e ciò che è possibile automatizzare e delegare all’intelligenza artificiale; che si sovrappone anche alla preoccupazione per la sobrietà tecnologica nell’ottica di limitare l’impatto ambientale.
In Ni dieu ni IA analizzo la fondamentale incompletezza dell’IA proprio per una questione di pragmatismo, per evitare le insidie che si annidano nelle nostre decisioni e azioni assistite dall’IA. Dalla matematica alla moralità, passando per la scrittura e la cognizione umana, questi ambiti di assurdità generati dall’intelligenza artificiale creano paradossi pragmatici che possono essere previsti e contrastati. Perché una cosa è certa: finché non risolveremo il problema dell’incompletezza e dei paradossi che ne derivano (quello dell’induzione di Hempel o della previsione di Goodman), le capacità dell’intelligenza artificiale non saranno altro che fumo negli occhi. La distinzione epistemologica che sviluppo, ispirandomi alla teoria degli immateriali di Yann Moulier Boutang, stabilisce una netta distinzione tra conoscenza formale di livello 1 (calcolo, sintassi, combinatoria, ordinazione, logistica, ecc.) e conoscenza informale di livello 2 (semantica, contestualizzazione, percezione, attenzione, apprendimento, cura, creazione e coscienza) per evitare confusione tra IA ed esseri umani.
https://www.asterios.it/catalogo/analogico-e-digitale
Mi sembra importante implementare nel nostro diritto europeo dei limiti chiari tra gli usi pragmatici dell’IA e le speculazioni, per distinguere la parte di intelligenza collettiva che deve essere necessariamente preservata e quella di formalismo che può essere delegata all’IA. Al di là di questo aspetto, è urgente considerare le realtà organizzative in cui intendiamo integrare l’IA, per individuare in che modo può, o non può, esserci utile nel nostro lavoro quotidiano e promuovere una maggiore capacità di creare, innovare e inventare insieme. Invece di imporre pratiche improduttive, ritmi folli o addirittura strumenti troppo lontani dalle reali esigenze delle organizzazioni e sviluppare IA destinate a stupire catturando l’attenzione, credo che in Europa si possa riuscire a definire modalità di lavoro assistite dall’IA che non alienino l’intelligenza umana. Interrogandoci seriamente su cosa sia necessario preservare e valorizzare nell’intelligenza collettiva, possiamo evitare la forte svalutazione di un insieme di attività essenziali per le nostre società.
Aiutaci a rimanere Paywall-free ♥ Contribuisci acquistando i volumi delle nostre collane di libri su carta, e delle edizioni di www.asterios.it
L’Europa potrebbe così porsi all’avanguardia nello sviluppo pragmatico dell’intelligenza artificiale e sfuggire alla trappola americana, promuovendo quella parte delle attività umane che attirerebbe le menti più brillanti da tutto il mondo. I ricercatori americani che in questo momento ricevono l’ordine di “Smettere di lavorare!” Da Harvard a Stanford e alla NASA”, che, sotto l’autorità del Doge di Musk, stanno tagliando i finanziamenti federali per la loro ricerca, potrebbero trovare asilo politico favorevole allo sviluppo dell’intelligenza collettiva in Europa. È senza dubbio giunto il momento di investire massicciamente in ecologia, istruzione, sanità, ricerca e cultura per attrarre le migliori menti del mondo in Europa, ponendo fine all’assurdo dibattito identitario sull’immigrazione e, soprattutto, promuovendo il modello europeo di sviluppo umano, ecologico, sociale e tecnologico che tutti ci aspettiamo.
Note
[1] Jeremy Kahn, “ Vuoi che il progetto di intelligenza artificiale della tua azienda abbia successo? “, Fortune , 26 luglio 2022
[2] James Ryseff, Brandon F. De Bruhl, Sydne J. Newberry, Le cause profonde del fallimento dei progetti di intelligenza artificiale e come possono avere successo, evitando gli anti-modelli dell’IA , Rand Corporation, 2023.
[3] FMI, Gen-AI: Intelligenza artificiale e il futuro del lavoro , gennaio 2024.
[4] Charles S. Peirce, Caso, amore e logica. Saggi filosofici , New York, George Braziller, 1956.
[5] Alex de Vries, “La crescente impronta energetica dell’intelligenza artificiale”, Joule , Volume 7, Numero 10, 2023, pp. 2191-2194.
[6] McKinsey & Company, “Come i data center e il settore energetico possono esprimere la fame di potere dell’IA ”, 2024
[7] Arman Shehabi, Sarah Josephine Smith, Alan Hubbard, Alex Newkirk, Nuoa Lei, . AB Siddik, Billie Holecek, Jonathan Koomey, Eric Masanet, Dale Sartor, Rapporto sull’utilizzo energetico dei data center negli Stati Uniti , Lawrence Berkeley National Laboratory, Berkeley, 2024.
[8] Ivi, pp. 94-95.
[9] Yann Mouilier Boutang, Il capitalismo cognitivo, la nuova grande trasformazione , edizioni Parigi, Amsterdam, 2007.
[10] Proletariato del capitalismo cognitivo che include qualsiasi attività che può essere parzialmente automatizzata dall’intelligenza artificiale.
[11] Robert Nozick, Anarchia, Stato, Utopia, Parigi, Puf, Quadrige, 2016.
[12] Antonio Casilli, Aspettando i robot , Parigi, Seuil, 2019.
[13] Alain Damasio, Silicon Valley , Parigi, Albertine Seuil, 2024, p. 47.
[14] Antonio Casilli, op. cit., pp. 142-145.
[15] Anastasia Iliopoulou-Penot, “L’ingerenza di Elon Musk nelle elezioni tedesche: quale ruolo per il Digital Services Act?” , The Lawyers’ Club , 2025
[16] Michel Balinski, Rida Laraki, Majority judgement, measuring, ranking and electing , Cambridge, MIT Press, 2010. Il voto proposto da questi due ricercatori si svolge in un unico turno durante il quale ogni elettore deve esprimere in modo indipendente un giudizio su ciascun candidato, da “eccellente” a “da rifiutare”. Questo sistema consente di aggirare il paradosso di Condorcet e il teorema dell’impossibilità di Kenneth Arrow, che porta alla dittatura.
Autore: Mathieu Corteel è filosofo e storico della scienza, ricercatore associato presso Sciences Po e Harvard.
Fonte: AOCMedia
