Verso il totalitarismo informatico

 

Le macchine, i software e la loro logica utilitaristica si inseriscono, si propongono o si impongono rigorosamente in tutti gli ambiti, in tutti i momenti e in tutti i luoghi della vita individuale e collettiva: il tentativo di rendere superfluo l’essere umano corrisponde a una delle definizioni di Hannah Arendt proposta in totalitarismo.

Sin dalla pubblicazione – seppur recentissima – del mio saggio Totalitarismo informatico, ho avuto l’impressione che la storia stia accelerando. Da un lato si moltiplicano i lavori sull’argomento, anche critici, e nelle righe che seguono cercherò di segnalare alcune di queste pubblicazioni che non avevo ancora preso in considerazione. D’altra parte, le discussioni intorno all’opera e in particolare due interviste [1] mi hanno portato a chiarire e ampliare alcune delle sue analisi.

Successivamente si discuteranno gli errori terminologici del mondo informatico, la ricerca di onnipotenza e razionalizzazione, il contributo decisivo di Byung-Chul Han e infine gli ambiti del diritto, della politica e della vita sociale.

Errori, illusioni, bugie?

Nell’introduzione, il libro si interroga sulla sostituzione terminologica dell’informatica con il digitale, sapendo che gli 0 e gli 1 della programmazione elettronica non sono numeri, ma segni di un codice. Tali falsità sono comuni: si pensi alla “dematerializzazione” di varie attività e servizi pubblici [2] che in realtà si traduce in un’impronta materiale molto più pesante della carta. Se, per la sua apparenza di rilievo, la dematerializzazione ha già una portata ingannevole, favorendo la riduzione dei servizi pubblici, imposture e mistificazioni sono ancora più importanti sulla scia della cosiddetta intelligenza artificiale.

Non torneremo qui su quanto è già stato sviluppato, da molteplici fonti, nel libro. Citiamo solo un articolo molto rilevante della filosofa Anne Alombert. Lei mostra che “le nozioni di intelligenza artificiale, apprendimento automatico o reti neurali sono problematiche, in quanto implicano analogie tra uomo e macchina, pensiero e calcolo, cervello e computer, che a loro volta si basano su una riduzione della mente a operazioni matematiche.” Tuttavia, “il funzionamento di tali macchine […] non ha nulla in comune con quello di un cervello umano” e, come gli agenti conversazionali, “le tecnologie digitali contemporanee non apprendono e non conversano”.

Se tali osservazioni critiche, diventate comuni negli ultimi anni, non hanno nulla di originale, il grande merito di Anne Alombert consiste nel riportare alla luce l’analisi del filosofo e medico Georges Canguilhem. Già nel 1980 essa “sottolineava le questioni politiche della “macchina di propaganda ideologica” che si era sviluppata “a livello industriale dell’informatica””, sottolineando poi l’“uso abusivo” di espressioni irrilevanti come ‘cervello cosciente’, ‘cervello cosciente’ macchina’, ‘cervello artificiale’ o ‘intelligenza artificiale’” […la cui] diffusione al grande pubblico mirava a “nascondere la presenza dei decisori dietro l’anonimato della macchina” e a “disarmare l’opposizione all’invasione di mezzi di regolamentazione automatizzata delle relazioni sociali” [3] . Il mio lavoro contiene anche diversi esempi di questa dissimulazione.

Tuttavia, diffidiamo di un atteggiamento di denuncia limitato all’accusa di tali decisori. È necessario ma non sufficiente per mettere in luce l’asimmetria dei poteri e le conseguenti manipolazioni terminologiche. In effetti, l’uso delle “espressioni irrilevanti” citate poc’anzi e in particolare dell’intelligenza artificiale è così diffuso che ci sembra fuorviante parlare di bugie, suggerendo una maggioranza di creduloni, intrappolati da una minoranza di bugiardi. Questo massiccio abuso testimonia forse la disponibilità dell’intera società occidentale a lasciarsi ingannare, a illudersi. Si tratta di un’ipotesi, già presa in considerazione dal filosofo Günther Anders, che richiederà ulteriori ricerche e riflessioni. Per ora, anticipiamo alcune tappe fondamentali che collegano queste illusioni al desiderio di maestria.

Onnipotenza e razionalizzazione

“Ciascuno tiene in mano lo specchio dei ciechi. […]
C’è un’oscura sacralità nella tecnologia,
un desiderio di rendere possibile l’impossibile. » [4]

L’informatica e più in particolare lo smartphone materializzano meravigliosamente la promessa della Modernità di rendere l’individuo padrone della sua vita e del suo destino: grazie ad esso, ci dice il socio-antropologo Nicolas Nova, “l’individuo è diventato “imprenditore della sua vita” [5] . Il potere e l’attrattiva diabolica di questo piccolo dispositivo risiede proprio nel suo perfetto adattamento alla nostra società individualizzata. Soddisfacendo momentaneamente il nostro desiderio di onnipotenza, ci riporta immediatamente, come spiega il mio lavoro, all’impotenza di fronte all’immensa burocrazia che è Internet e il mondo informatizzato. Come nella città commerciale globalizzata, dove in caso di rallentamento dei flussi di approvvigionamento o di accelerata diffusione degli agenti patogeni l’individuo sopravvive solo pochi giorni.

La nostra impotenza individuale diventerebbe quindi sopportabile grazie alla fantasia di onnipotenza, che è proprio sostenuta dalle illusioni che nascono dall'”antica fascinazione per le macchine simili agli esseri umani”, alimentata dalla “paura della superiorità della macchina e della segreta speranza di condividere questa superiorità” [6] . Possiamo supporre che l’attrazione contemporanea per la giocosità [7] partecipi alla stessa dinamica. Su questa base intravediamo quello che potrebbe costituire il problema forse principale dell’informatica: la sua inebriante promessa di onnipotenza può essere contrastata solo con o nel collettivo! L’individuo isolato ne è incapace, come dimostrano i milioni di dipendenti dal loro piccolo miracolo. Questa situazione assomiglia al problema della morte che è «pensabile solo a partire dalla vita della comunità» [8] , poiché l’individuo solitario non è in grado di prevedere la propria scomparsa. Se gli individui isolati non possono quindi essere vettori del cambiamento, al contrario, raggruppati in associazioni e assemblee, potrebbero organizzare la consapevolezza e una ripresa del controllo del destino collettivo di fronte alla tecnologia. Speriamo quindi in una simile ripresa collettiva!

Nell’ambito della trasformazione capitalistica delle società, in corso da diversi secoli, uno dei modi per acquisire potere e sconfiggere i rivali è razionalizzare comportamenti e pratiche. Il mio lavoro insiste con Max Weber sugli effetti perversi di un’eccessiva razionalizzazione, sapendo che l’informatizzazione costituisce senza dubbio la più grande ondata di razionalizzazioni che l’umanità abbia conosciuto. È importante approfondire e chiarire questa analisi in due direzioni.

Da un lato si può notare che nel mondo e nel pensiero di Max Weber la razionalizzazione aveva ancora un contenuto e un ruolo ambivalenti. Potrebbe riguardare la quantificazione, ma coinvolgere anche la scienza o il diritto e quindi fare affidamento sui linguaggi naturali con la loro ambiguità fondativa. D’altro canto, la razionalizzazione informatica tende a sostituire i linguaggi macchina, privi di ambiguità e che sostituiscono i segni linguistici che devono essere interpretati con segnali che non possono essere interpretati. Ha quindi un solo significato, quantitativo, e il suo unico scopo è facilitare e accelerare attività e processi. (Per quanto riguarda le operazioni informatiche in sé, il programmatore Laurent Robin ritiene che negli ultimi quarant’anni abbiamo assistito più a un “rallentamento che a un’accelerazione”. [9] )

D’altro canto Norbert Wiener, uno dei padri della cibernetica, e i suoi colleghi dei congressi di Macy ritenevano, all’indomani della Seconda Guerra Mondiale e del Nazismo, che l’uomo avesse fallito e che fosse quindi necessario sostituirlo con l’uomo macchina, meno soggetta alle passioni [10] . L’informatizzazione tende quindi a trasformare il pensiero e il sentimento individuale, nonché le interazioni sociali e la vita in operazioni puramente funzionali, istintive o macchiniche. Questo crea, come diceva Hannah Arendt, “un mondo di riflessi condizionati, di marionette senza la minima traccia di spontaneità.» [11] Ma poiché gli esseri umani non sono né animali né macchine, questa automazione non può che fallire.

Ciò che Wiener e i suoi colleghi potrebbero non aver visto è che le passioni umane non possono essere soppresse. Cercando di aggirarli o sradicarli, non facciamo altro che renderli più irascibili e furiosi. Possiamo quindi solo assumercene la responsabilità e supervisionarli. In altre parole, a partire da una certa soglia di espulsioni della vivacità individuale e collettiva, i bisogni psicologici, insoddisfatti dal funzionalismo ambientale e dall’utilitarismo, daranno luogo a esplosioni di violenza, crolli depressivi, morti improvvise su larga scala, come anticipato dallo scrittore Jaime Semprun [12] . Possiamo anche supporre che il fascismo e il nazismo fossero già il risultato della razionalizzazione capitalista [13] .


Disponibile in Amazon e IBS.it libreria onlinehttps://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale


Il contributo di Byung-Chul Han

Nel mio libro ho citato di passaggio l’opera di questo filosofo tedesco, ma non ero ancora a conoscenza della sua abbagliante analisi dell’informatizzazione del mondo. Nel suo brillante saggio sintetico Infocratie, Byung-Chul Han ne segnala cinque tra i molteplici effetti devastanti: in primo luogo, “lo smartphone, come dispositivo di sottomissione, […] accelera la disintegrazione dello spazio pubblico”.

In secondo luogo, “[b]poiché è comunicazione senza comunità, la comunicazione digitale distrugge la politica dell’ascolto” e “perde sempre più la dimensione dell’altro  [ 14] , perché, “[c]]È noto che il computer non può esitare. La dimensione dell’altro che gli manca ne fa una macchina di calcolo autistica[15] . Si instaura così “una società della sfiducia” e “stiamo perdendo la fiducia fondamentale” [16] . Poiché possiamo supporre che l’unico modo per garantire, per e in una comunità umana, una sicurezza duratura risieda nella fiducia reciproca (contrariamente al mito dell’efficacia della “paura della polizia”), possiamo temere che l’informatizzazione del mondo tenderà a renderlo sempre più incerto, precario e pericoloso. È interessante ricordare a questo proposito che il giurista e sociologo Niklas Luhmann ritiene che “la scienza non produce sicurezza, ma al contrario insicurezza”; sarebbe il mezzo “con cui la società rende il mondo incontrollabile”. In quanto “sistema di propulsione senza freni”, spinge verso la decomposizione del mondo implicando “la crescente probabilità di ricombinazioni incontrollabili”. Questo pericolo per la società in sé difficilmente potrebbe essere corretto “anche di fronte alla probabilità di catastrofi” [17] .

In terzo luogo, “oggi siamo certamente ben informati, ma disorientati. Le informazioni non hanno senso di orientamento. » [18] Il mio libro esamina il significato dell’informazione. Aggiungiamo qualche osservazione di Paul Virilio che spiega che “velocità di acquisizione, di trasmissione o velocità di calcolo, l’informazione è inseparabile dalla sua accelerazione energetica, l’informazione rallentata non è più nemmeno [… che] semplice rumore di fondo.» Perciò «occorre correggere la famosa formula di Marshall Mac Luhan: “Il messaggio non è il mezzo, è solo la sua velocità ”. » [19] Su questa base, non ci stupiamo affatto che «[mai], malgrado la quantità di conoscenze prodotte ogni giorno, queste siano confluite così poco per alimentare il pensiero critico.» [20]

In quarto luogo, l’informatica promuove una “crisi della verità”: attraverso un “nuovo nichilismo […], la distinzione tra verità e menzogna stessa viene neutralizzata” e “[d]igital photography distrugge la fatticità come verità[21] . Questa crisi può essere paragonata, su scala individuale, a “una nuova malattia della società dell’informazione. Si chiama Sindrome da fatica informativa  (information fatigue sindrome, meglio conosciuta con i termini Information Overload e Infobesity ). “Uno dei suoi sintomi è la paralisi della capacità analitica. Nel cuore del flusso di informazioni, evidentemente non siamo più in grado di distinguere l’essenziale dall’inessenziale. È interessante notare che un altro sintomo di ciò è l’incapacità di assumersi la responsabilità.» [22]

Quinto, il lavoro di Byung-Chul Han, mi permette di accentuare la mia critica al focus del dibattito pubblico sulla sorveglianza. Questo prisma maschera il fatto che, nella società informatizzata, l’assoggettamento degli individui in massa tende a realizzarsi con la loro complicità: “Il dominio si completa nel momento in cui libertà e sorveglianza equivalgono alla stessa cosa” [23] , l’informatizzazione del mondo in relazione a quella che Han chiama una “violenza della positività” [24] . Queste affermazioni paradossali meritano una riflessione approfondita. Accontentiamoci per il momento di queste poche osservazioni: “mentre [in passato senza computer] il desiderio di libertà limitava il potere, oggi lo estende.» Stiamo infatti assistendo a una nuova forma di “desublimazione repressiva” con cui Herbert Marcuse designava il controllo del desiderio nelle società dei consumi, consistente “nel controllare il desiderio non attraverso la sua frustrazione ma attraverso la sua sfrenata soddisfazione.» [25]

In sintesi, Byung-Chul Han descrive il regime dell’informazione e dei dati come “totalitario”, aggiungendo però, come importante chiarimento, che si tratta di “totalitarismo senza ideologia” [26] . Questa terminologia è confermata da due autori che ritengono che “[una] società la cui principale forza trainante è creare dipendenze è una società con obiettivi totalitari.» [27]

Diritto, politica e vita sociale

Sotto questo titolo aperto raggruppo ulteriori informazioni riguardanti la vita collettiva. Il suo ordinamento giuridico ne risente pesantemente: l’informatizzazione sabota il diritto e la giustizia in quanto “impero del terzo”, per usare il titolo dell’ultima opera del filosofo del diritto François Ost [28] . Perché organizzare la risoluzione delle controversie come regola tecnica attraverso il linguaggio univoco degli algoritmi sminuirebbe l’interpretazione giuridica, cuore dell’attività dell’avvocato, e il ruolo del giudice che presiede la deliberazione contraddittoria.

Aneddoticamente ma emblematicamente, questo indebolimento del quadro normativo è chiaramente evidente nello slogan pubblicitario “La regola? Senza regole! ” [29] . Ridurrebbe anche la fiducia, il consenso e l’impegno delle parti in un processo, nonché l’imperfezione della legge e l’imprevedibilità delle decisioni dei tribunali che sono condizioni per il loro funzionamento. Assisteremmo anche a un irrigidimento del diritto e della giustizia a scapito della loro apertura e flessibilità, perché basandoci su dati massicci (big data), legheremmo il presente e il futuro al passato. Questa “fondamentale insufficienza del calcolo statistico per la funzione di giudicare” risulta in particolare dal fatto che “la macchina [che effettua questo calcolo] non è né dotata di libertà né di immaginazione”, non è “audace” [30] .

Estendendo la dimensione temporale, precisiamo che la giustizia e la vita giuridica hanno bisogno di tempo. Negli anni Cinquanta, un sociologo americano sottolineava, per la convivenza, l’importanza del conflitto, che ha una virtù regolatrice e calmante, a condizione ovviamente che sia inquadrato [31] . Al contrario, l’informatica ha la funzione di andare più veloci. Automatizzando la giustizia e, più in generale, l’uso del diritto, tendiamo a ridurre questo fattore tempo essenziale. (È ovviamente importante accelerare il funzionamento giudiziario, notoriamente rallentato dall’insufficienza del personale [32] e delle risorse, poiché non è possibile ottenere una migliore allocazione dell’immensa ricchezza sociale disponibile a beneficio dei servizi pubblici essenziali.) Tra i tanti aspetti presi di mira dalla progetti di giustizia digitale, “l’udienza in videoconferenza è una modalità di giustizia distorta dalla quale scompare ogni contatto umano, polverizzata sia dalla distanza che dallo schermo.» Essa attacca il cuore del processo, cioè la regola delle tre unità: tempo, luogo e azione che significa «la presenza nello stesso tempo e nello stesso luogo di tutti gli attori del processo. » [33]

Proprio come la giustizia, la democrazia si sviluppa nel tempo. Perché ci sia democrazia, deve esserci deliberazione, che implica l’espressione e la maturazione di posizioni opposte che si evolvono nel tempo. Deliberando, opponendosi agli altri, cercando argomenti, ci avviciniamo, ci calmiamo e probabilmente troviamo posizioni che pacificano la relazione. Ciò richiede un investimento reale, soprattutto in termini di tempo, che viene neutralizzato dall’IT nella sua corsa contro il tempo. Al posto della pacificazione deliberativa, Internet organizza un’agitazione estenuante, fonte di eccessi vari e senza futuro: “L’ultraliberalismo, di cui il digitale è il mercato più promettente, ha ora con le reti sociali una valvola affinché il sistema non esploda. La protesta così incanalata fuoriesce in maniera sterile. […] Allo stesso modo, la petizione digitale scambia l’azione con i clic.» “ Manca tutta l’energia impiegata per mantenere il flusso di affermazioni e commenti sui social network [e altrove attraverso gli schermi] per realizzare il minimo cambiamento che potrebbe turbare gli interessi industriali.” [34]

La tecnologia dell’informazione ha un impatto sulla vita collettiva simile a quello che fa il mercato, intensificando addirittura il meccanismo di mercato. Fino a poco tempo fa potevamo pensare, o almeno sperare, che ciò avrebbe appiattito le gerarchie sociali. Ma l’appiattimento è un’illusione: “il mondo digitale non è orizzontale ma chiaramente gerarchico.» [35] Se esiste davvero una certa orizzontalizzazione, è solo apparente perché è autorizzata e sostenuta da un sistema più centralizzato, più opaco, più controllato e più incontestabile, a scapito in particolare delle libertà individuali e collettive. L’orizzontalità degli scambi tra utenti è in gran parte neutralizzata dalla verticalità del potere degli operatori: “Gli ecosistemi digitali traggono il loro valore aggiunto dall’asimmetria tra l’inaccessibilità del software utilizzato dall’utente e l’accessibilità delle tracce digitali che lascia.»

Il divario tra gli utenti orizzontali e la loro sottomissione verticale al quadro si ritrova già nell’accordo commerciale di cui Internet perfeziona la logica: la potenza dell’informatica “deriva da una sinergia tra tecnologia e mercato”. Deriva dal fatto che “la tecnologia digitale rimuove la nozione di scala. Procedendo da una manipolazione di segni ripetibile all’infinito, la sua estensione non è bloccata dalla distanza geografica, trascurabile per le comunicazioni elettroniche. D’altro canto, “nell’economia tradizionale, la corsa per le dimensioni è limitata dal contenimento delle economie di scala” [36] : ad esempio, produrre tutte le automobili del mondo in un’unica fabbrica potrebbe sembrare allettante, se ciò fosse possibile, non fosse per gli alti costi di trasporto…

Accentuata dalla crisi sanitaria del Covid-19, l’informatica ha favorito una vita sociale atomizzata, “senza contatto fisico” [37] . Ciò amplifica la logica della società dei consumi, il cui fondamento e logica individuale. Zygmunt Bauman spiega: “A differenza della produzione, il consumo è un’attività solitaria [… In effetti, gli sforzi produttivi richiedono cooperazione” mentre “il consumo [… costituisce] una serie di sensazioni che possono solo essere sperimentate soggettivamente.» [38] Durante e dopo il confinamento, questo orientamento al consumo si è esteso in due modi intrecciati: da un lato, ha conquistato, oltre al tradizionale acquisto di beni, nuovi ambiti, come l’apprendimento e il lavoro online, le conferenze virtuali, le feste e gli aperitivi , ecc., che sono stati – almeno parzialmente – privati ​​della loro dimensione collettiva. Invece gli acquisti abituali, i prelievi di documenti amministrativi, ecc. sono stati privati ​​del contatto fisico tramite telecomando.

Precisiamo che il mercato è questo spazio-tempo in cui acquirenti e venditori, presumibilmente uguali, si incontrano e scambiano, isolati gli uni dagli altri. Non c’è nulla di necessariamente democratico in questo, perché l’uguaglianza degli attori è solo formale, davanti alla legge, e ciò può contribuire a perpetuare le disuguaglianze di fatto più evidenti. Contrariamente alla leggenda neoliberista, il mercato è un ente pubblico che presuppone, come la risoluzione delle controversie, il terzo e quindi il potere pubblico. Questo è il motivo per cui l’estensione dei mercati e, più in generale, l’individualizzazione delle società vanno di pari passo con l’aumento del potere statale .

Per il momento, il terzo che vigila sull’informatica e soprattutto su Internet risiede presso potenti attori privati, il che dà luogo ad una verticalità lontana da qualsiasi deliberazione democratica. Ad esempio, Google esercita una missione di interesse generale ma esente da qualsiasi controllo, consistente nell’esaminare e decidere le richieste volte a rimuovere, tra i risultati visualizzati dal suo motore di ricerca, pagine Internet particolarmente offensive o diffamatorie.

Per concludere su questo punto, possiamo notare che la democrazia è minata anche dove il GAFAM non agisce. Ad esempio, prendiamo la famosa enciclopedia online Wikipedia. Non ci limiteremo a fare amicizia, ma osserveremo comunque ciò di cui finora non ci siamo accorti molto: se si tratta certamente di un’iniziativa autogestita indubbiamente esemplare (e di cui mi avvalgo con molta assiduità), non dimentichiamo che su scala planetaria si sta realizzando una centralizzazione omogeneizzazione.

Per quanto riguarda l’istruzione [39] , la catastrofe è già stata provata. Senza menzionare l’aumento della violenza indotta dai (a)social network, dobbiamo ricordare che l’apprendimento è un processo complesso e, ancora una volta, a lungo termine. Coniuga l’acquisizione dei gesti corporei (ad esempio i movimenti della mano nella scrittura), lo sviluppo del cervello (in particolare la formazione dei neuroni e delle sinapsi), l’evoluzione mentale e cognitiva e la maturazione relazionale e sociale. L’istruzione sugli schermi interrompe questo processo, in particolare riducendo le capacità motorie e le interazioni “faccia a faccia”, quindi psico-corporee, con gli altri. Secondo studi condotti, tra gli altri, in Francia e Germania, “i risultati accademici diminuiscono in proporzione al tempo trascorso davanti agli schermi. Il collegamento è chiaro. […] Se l’educazione “digitale” sembra utile a partire dai 14 o 15 anni in preparazione alle future attività professionali […], dobbiamo urgentemente porre fine all’educazione “digitale”.»

Se i computer difficilmente aiutano nell’apprendimento, gli schermi sono, tuttavia, molto potenti nel disfare e danneggiare le cose. Senza voler riassumere qui i miei sviluppi dettagliati riguardo al loro impatto su bambini e adulti, segnaliamo questa testimonianza come prova: “Più del 90% dei bambini CE2 incontrati da [l’associazione] Alza gli occhi! rispondere positivamente alla domanda: “Sei mai rimasto scioccato da un’immagine su uno schermo?”» [40]

Gli effetti distruttivi possono essere visti in quello che chiamiamo terrorismo. Possiamo avanzare l’ipotesi che il fenomeno “terroristico” [41] sia legato all’informatica nella misura in cui rende gli utenti solitari e, allo stesso tempo, li spinge alla disinibizione. Sappiamo che se le persone che diventano estremiste su Internet imparassero la religione in una moschea, in un tempio o in una sinagoga invece che dietro uno schermo, gli incontri, il contatto umano, il controllo sociale e la possibilità di dibattito cambierebbero molte cose.

Certamente l’impatto della tecnologia nella vita dei “terroristi” non è ancora ben studiato e documentato. Ma sappiamo grazie agli studi televisivi che di fronte allo schermo nella solitudine individuale, l’apparato psicologico dell’essere umano è particolarmente vulnerabile, molto più che nel faccia a faccia fisico, che impone limiti, suscita autocontrollo e può anche suscitare empatia. Come ulteriore spiegazione, aggiungiamo che “[la] regolazione emotiva [… effettuata dai computer] isola gli utenti dalla propria affettività. Non è questa una porta aperta a forme di barbarie generate dalla perdita della consapevolezza emotiva, che è una delle basi del senso morale? » [42]

Il mio lavoro cerca di mostrare come e in che modo l’informatica rende superflui gli esseri umani e corrisponde quindi a una delle definizioni proposte da Hannah Arendt del totalitarismo. Le righe precedenti confermano e costituiscono un’altra parte del libro: le macchine, i software e la loro logica utilitaristica si inseriscono, propongono o impongono in modo totale, rigorosamente in tutti gli ambiti, in tutti i momenti e in tutti i luoghi della vita individuale e collettiva, fino al punto di mettere sostanzialmente in discussione il suo carattere vivo. Tuttavia, essendo la vita imprevedibile, non possiamo escludere lo scoppio collettivo che abbiamo visto sopra…

Note

[1] Dont nous tirons certains des passages qui suivent. Il s’agit de : «Et si l’informatique était une nouvelle forme de totalitarisme ? », entretien avec Olivia Dufour, 22 fév. 2024 ; «Le totalitarisme informatique qui vient », entretien avec Laurent Mucchielli, 16 avril 2024.

[2] Simon Arambourou, «Les déshumanisateurs. De quoi la “dématérialisation” des services publics est-elle le nom ? », Le Monde diplomatique, avril 2024, p. 3.

[3] Georges Canguilhem, « Le cerveau et la pensée » (1980), dans Georges Canguilhem, philosophe, historien des sciences, Albin Michel 1993, p. 21.

[4] Christian Bobin, Le muguet rouge, Gallimard, 2022.

[5] Nicolas Nova, Smartphones. Une enquête anthropologique, préface Dominique Cardon, MétisPresses, 2020, p. 330.

[6] Günther Ortmann, Der zwingende Blick. Personalinformationssysteme – Architektur der Disziplin, Campus : Frankfurt/Main 1984, p. 110-116.

[7] Benjamin Lavigne, Le petit surhomme des jeux vidéo et la gamification du monde. Éthique de la manipulation par l’interactivité ludique, Les Presses du réel, 2022.

[8] Miguel Benasayag, Le mythe de l’individu, La Découverte, 2004, p. 67.

[9] Correspondance par mail.

[10] Groupe Marcuse, La Liberté dans le coma. Essai sur l’identification électronique et les motifs de s’y opposer, « Contre l’informatisation du monde », éditions La Lenteur, nlle éd. 2019, p. 114-117.

[11] Hannah Arendt, Les origines du totalitarisme (1951), t. 3 : Le système totalitaire, Seuil 2005, p. 274.

[12] Jaime Semprun, L’abîme se repeuple, Encyclopédie des nuisances 1997, p. 83.

[13] Christopher Pollmann, « The two-fold idealism of far-right politics »Ritsumeikan Studies in Language and Culture, vol. 14, n° 1, mai 2002, p. 201 à 209; id., « Diminuer le refoulement éducatif pour éviter le défoulement meurtrier. Après Auschwitz, reconnaître la dimension affective de notre existence et apprendre la vie relationnelle », colloque Théorie critique des crises contemporaines, Centre culturel international de Cerisy, juin 2018, non publié.

[14] Byung-Chul Han, Infocratie. Numérique et crise de la démocratie, PUF 2023, respectivement p. 48, 61 et 61. V. également id., L’expulsion de l’autre, PUF 2020. Suite aux objections de Laurent Robin, on peut estimer qu’une communauté suppose un lien au moins partiellement physique d’une certaine durée qui ne soit pas entièrement à la seule disposition de ses membres. Car « [u]n collectif sans corps, c’est finalement une pure fonction sans structure » selon Antoine Garapon & Jean Lassègue, Le numérique contre le politique. Crise de l’espace et reconfiguration des médiations sociales, PUF 2021, p. 92. Si Laurent Robin affirme que « [l]es outils numériques sont mis en place justement pour faciliter la communication [… et] l’écoute », on peut se demander qui précisément aurait cette intention et si elle est effectivement mise en œuvre. Les recherches de Sherry Turkle indiquent au contraire que les utilisateurs de ces outils cherchent à épurer et à contrôler leurs échanges avec autrui, tendent à faire peu attention à leur environnement et subissent un recul d’empathie évalué à 40 % de 1979 à 2010 (Seuls ensemble : De plus en plus de technologies, de moins en moins de relations humaines, L’Échappée 2015, p. 44 sq., 299-301, 314-316, 434 sq., 450, 451).

[15] Byung-Chul Han, Topologie de la violence, 2ème éd. avec une préface de Christopher Pollmann, R & N , 024, p. 144.

[16] Byung-Chul Han, Infocratieop. cit. p. 92.

[17] Niklas Luhmann, cité de différentes sources par Stefan Breuer, Die Gesellschaft des Verschwindens. Von der Selbstzerstorung der technischen Zivilisation, Junius, 1992, p. 93 (notre trad.).

[18] Byung-Chul Han, Infocratieop. cit. p. 93.

[19] Paul Virilio, La bombe informatique, Galilée 1998, p. 155.

[20] Marc Dugain et Christophe Labbé, L’homme sans contact, L’Observatoire 2022, p. 204.

[21] Byung-Chul Han, Infocratieop. cit., resp. p. 79 et suivantes, 82, 91.

[22] Byung-Chul Han, « L’éros vainc la dépression », entretien avec Ronald Düker et Wolfram Eilenberger, dans Thanatocapitalisme. Essais et entretiens, PUF 2021, p. 143-159.

[23] Byung-Chul Han, Infocratieop. cit. p. 13.

[24] Byung-Chul Han, Topologie de la violenceop. cit.

[25] Antoine Garapon et Jean Lassègue, Le numérique contre le politiqueop. cit., p. 106, 109.

[26] Byung-Chul Han, Infocratieop. cit. p. 20.

[27] Marc Dugain et Christophe Labbé, L’homme sans contactop. cit. p. 173.

[28] François Ost, Le droit ou l’empire du tiers, Dalloz 2021.

[29] Reed Hastings et Erin Meyer, La règle ? Pas de règles ! Neflix et la culture de la réinvention, Harper Collins 2021. Sur cette plateforme de vidéos, voir Romain Blondeau, Neflix : l’aliénation en série, Seuil 2022 (p. 53).

[30] Olivia Dufour, La justice en voie de déshumanisation. Demain, les hommes jugés par l’intelligence artificielle ?, LGDJ, 2021, p. 266, 269 et 270, la deuxième citation provenant de Marie-Anne Frison-Roche.

[31] Lewis A. Coser, Les Fonctions du conflit social (1956), PUF 1982.

[32] Selon l’avocat Gérard Christol, cité par Olivia Dufour, op. cit. p. 246, « nous avons quasiment le même nombre de juges qu’en 1850, tandis que la France compte 40 millions d’habitant de plus. »

[33] Olivia Dufour, La justice en voie de déshumanisationop. cit. p. 197 et 168.

[34] Marc Dugain & Christophe Labbé, L’homme sans contactop. cit. p. 170 et 198.

[35] Katharina Pistor, Le code du capital. Comment la loi crée la richesse capitaliste et les inégalités, Seuil, 2023, p. 280.

[36] Antoine Garapon et Jean Lassègue, Le numérique contre le politiqueop. cit. p. 50, 46, 49.

[37] Marc Dugain & Christophe Labbé, L’homme sans contactop. cit.

[38] Zygmunt Bauman, Liquid Modernity, Polity Press, 2000, p. 165, 97.

[39] Éric Martin et Sébastien Mussi, Bienvenue dans la machine. Enseigner à l’ère numérique, Écososciété, 2023 ; Michel Desmurget, Faites-les lire ! Pour en finir avec le crétin digital, Seuil 2023.

[40] Yves Marry, Numérique : On arrête tout et on réfléchit !, Rue de l’échiquier, 2023, p. 63, 62.

[41] Christopher Pollmann, « Entre exploration scientifique et désir punitif : Le terrorisme, dérive suicidaire des sociétés individualisées et technicisées », dans Illusio n° 20, 2023 : « Totalitaire », p. 383 à 411 ; version abrégée dans Pierre Brunet & Hajime Yamamoto (dir.), Voyages et rencontres en droit public. Mélanges Ken Hasegawa, Mare & Martin, 2022, p. 259 à 270.

[42] Fabienne Martin-Juchat, « Dépendances affectives au numérique : la productivité en question », dans id. et Adrian Staii (dir.), L’industrialisation des émotions : Vers une radicalisation de la modernité ?, L’Harmattan 2016, p. 167-209 (190).

___________________

Autore: Professore associato di diritto pubblico, Christopher Pollmann è docente-ricercatore presso l’Università della Lorena a Metz, ricercatore presso l’IRÉNEÉ e direttore del seminario “Accumuli e accelerazioni” presso la Fondazione Maison des sciences de l’homme di Parigi.

Fonte: AOCMedia


https://www.asterios.it/catalogo/il-feudalesimo-digitale