Contro l’IA, osiamo difendere la società!

 

«Illuminismo oscuro», «debito cognitivo», «accelerazione reazionaria»: dobbiamo «osare l’IA» se ci condanna a immergerci in una nuova servitù volontaria nei confronti dei giganti della tecnologia? Questo senza contare le possibilità offerte dalla regolamentazione di queste tecnologie, che possono così essere messe al servizio dei nostri interessi individuali e collettivi. 


Per questo Natale regala un libro splendido!

https://www.asterios.it/catalogo/cinema-e-matematica


 

Osate l’IA![1]“: questo è lo slogan che dà il nome al piano nazionale lanciato il 1° luglio dal governo francese, volto a promuovere la diffusione dell’IA nelle imprese; non sorprende che l’argomento avanzato sia quello della competitività.

Oltre a prometterci l’aumento e l’immortalità, l’IA ci assicura anche un aumento della produttività. Si tratta quindi di «rendere l’IA uno strumento accessibile, concreto e utile per tutte le imprese», attraverso operazioni di sensibilizzazione, formazione e accompagnamento, specificamente destinate a quelle che non hanno ancora «osato».

Osare l’IA o osare pensare?

Un simile slogan promozionale non manca di richiamare una certa massima filosofica, spesso associata alla modernità. “Sapere aude!”, “Abbi il coraggio di sapere!”, “tale è il motto dell’Illuminismo”, scriveva Immanuel Kant nel 1784, nella sua famosa “Risposta alla domanda ‘Che cos’è l’Illuminismo?’[2]”. Per il filosofo tedesco, “osare sapere” significa “avere il coraggio di servirsi del proprio intelletto”, “pensare con la propria testa”, “senza la guida di altri”. Kant esorta quindi i cittadini a esercitare il proprio giudizio autonomamente, a non accontentarsi dei pregiudizi e di uno stato di tutela. Insiste sulla necessità di non delegare l’attività del pensiero, che implica sempre uno sforzo difficile e coraggioso: «Se ho un libro che mi sostituisce nell’uso del mio intelletto, un direttore per la mia coscienza, un medico per la mia dieta… non ho bisogno di affaticarmi. Non ho bisogno di pensare, purché possa pagare; altri si occuperanno al posto mio di questo lavoro noioso».

Per Kant, questa delega del pensiero al libro, al prete o al medico rinchiude gli individui in uno stato di minorità: al contrario, il cittadino maggiorenne esercita il suo spirito critico, non affida al supporto tecnico costituito dal libro il compito di pensare al posto suo. Il passaggio alla maggiore età è caratterizzato proprio dall’uscita dallo «stato di tutela» e dalla capacità di pensare con la propria testa. Gli individui possono quindi comprendere e criticare le leggi e le istituzioni che regolano la loro società, al fine di trasformarle, esprimendo pubblicamente le loro opinioni «davanti al pubblico che legge».

Il libro ritrova così una funzione emancipatoria rendendo possibile il dibattito pubblico. Secondo Kant, in una repubblica ogni cittadino dovrebbe essere autorizzato a esercitare «l’uso pubblico della propria ragione», ovvero la «libertà di formulare pubblicamente, in qualità di studioso, cioè attraverso i propri scritti, le proprie osservazioni sui difetti dell’istituzione del momento». Solo questo «uso pubblico della nostra ragione» permetterà di «diffondere la luce tra gli uomini». L’esercizio di un tale «pensiero libero» renderà così il popolo «capace di agire liberamente» – un popolo che dovrà quindi essere considerato dal governo «in conformità con la sua dignità», come «più di una semplice macchina».

Le luci oscure dell’IA generativa: pregiudizi algoritmici e debito cognitivo

Nell’era delle «Luci oscure[3]», dal nome dell’ideologia neoreazionaria che alimenta la maggior parte degli industriali della Silicon Valley, non si tratterebbe più di «osare sapere», ma di «osare l’IA». Attraverso un ribaltamento della prospettiva dell’Illuminismo, la cui possibilità era stata ampiamente descritta da Adorno e Horkheimer[4], non sono più i cittadini ad essere invitati a “pensare con la propria testa”, ma sono gli imprenditori e i loro dipendenti ad essere incoraggiati a utilizzare sistemi di IA generativa. Sebbene questi sistemi possano consentire un aumento della produttività, il loro utilizzo da parte del grande pubblico rimane comunque problematico, come dimostra un recente studio del MIT, che sottolinea l’“atrofia cerebrale” e il “debito cognitivo” causati dall’uso di ChatGPT: “le regioni del cervello coinvolte nell’integrazione semantica e nell’ideazione creativa” non vengono più attivate e il “ritorno a una normale attività cerebrale” diventa molto difficile quando gli utenti vengono privati della loro protesi cognitiva[5]. Oggi non è più il supporto tecnico del libro che rischia di “sostituirsi all’intelletto”, ma sono le macchine di scrittura automatizzate che bypassano le attività di pensiero: “Non ho bisogno di affaticarmi. Non ho bisogno di scrivere, riflettere o pensare, purché possa pagare il mio abbonamento a ChatGPT! »

Non tarda a instaurarsi una relazione di dipendenza tecnologica nei confronti di questi automi digitali, per lo più sviluppati da giganti o start-up della Silicon Valley, il cui funzionamento rimane spesso ermetico e incomprensibile per gli utenti. Questi ultimi integrano così i pregiudizi implementati negli algoritmi e nei set di dati, senza nemmeno rendersi conto che queste tecnologie sono ben lungi dall’essere neutre. Ad esempio, l’IA generativa denominata Grok, progettata e sviluppata dalla società xAI di Elon Musk, non produce lo stesso tipo di testo di ChatGPT, l’IA generativa progettata e sviluppata dalla società OpenAI di Sam Altman: la prima vuole essere meno “politicamente corretta” della seconda, che Musk ha tentato di acquistare.

Oltre ai pregiudizi ideologici, occorre considerare anche quelli statistici: uno studio dell’Unesco sui grandi modelli linguistici di Meta e OpenAI sottolinea che in almeno il 30% dei testi generati le donne sono presentate come modelle, cameriere o prostitute[6]: poiché questi cliché sono molto diffusi sul web, risaltano in modo amplificato nei contenuti generati e vengono così rafforzati in modo performativo. Infine, diversi studi suggeriscono che gli scienziati che si affidano a ChatGPT per assisterli nella stesura di articoli finiscono per utilizzare più frequentemente i termini specifici del software. Tuttavia, le categorie linguistiche condizionano le categorie di pensiero[7]: finiremo quindi tutti per scrivere, parlare e pensare come ChatGPT, o come un’altra di queste macchine digitali (ad esempio, Grok o Deepseek), che ora guidano le coscienze e le menti di milioni di individui connessi.

La “mercificazione” dello spazio digitale di pubblicazione

L’esercizio del libero pensiero non è facile nel contesto di queste nuove industrie culturali, che mettono anche a repentaglio l’uso pubblico della ragione e l’espressione democratica delle opinioni. Se i social network commerciali, che costituiscono ormai le principali tecnologie di pubblicazione, danno a ciascuno l’illusione di potersi esprimere liberamente, sono gli algoritmi di raccomandazione che selezionano i contenuti da amplificare o meno. Il funzionamento di queste reti non è quindi democratico, poiché una sola azienda privata decide in modo opaco chi avrà diritto alla visibilità: mentre alcuni contenuti vengono diffusi in modo virale, altri rimangono per sempre ignorati.

Tuttavia, proprio come le IA di generazione, anche le IA di raccomandazione non sono politicamente neutre: gli algoritmi amplificano i contenuti redditizi per le aziende proprietarie delle piattaforme, che cercano di mantenere gli utenti catturati suscitando reazioni immediate e polarizzate, al fine di aumentare i propri profitti basati sulla pubblicità mirata[8]. I Facebook Files rivelati da Frances Haugen nel 2021 hanno dimostrato che, favorendo i post che incitano all’odio, gli algoritmi di raccomandazione di Facebook costringono i politici a essere sempre più divisivi per sopravvivere mediaticamente. Con il rapido sviluppo dell’IA generativa, lo spazio mediatico digitale sarà presto invaso da contenuti falsificati o contraffatti. Sulla rete X, l’IA generativa Grok è ora direttamente integrata: diventa quindi possibile, con due o tre clic, produrre qualsiasi immagine falsificata e pubblicarla. Eserciti di account falsi si occuperanno poi di commentarla o cliccarla per generare un’apparenza di attività, in modo che l’immagine venga diffusa in modo massiccio.


https://www.asterios.it/catalogo/falsificazioni


In un rapporto dell’aprile 2025, la società Imperva del gruppo Thales ha rivelato che, per la prima volta, il traffico web generato da programmi informatici automatizzati (bot) ha superato quello degli utenti Internet, raggiungendo il 51% di tutte le attività online. Sulla piattaforma LinkedIn, un precedente studio condotto dalla società Originality.ai subito dopo il lancio di ChatGPT aveva già rilevato un aumento del 189% dei contenuti generati automaticamente (in un mese, da gennaio a febbraio 2023). Sulla stessa piattaforma, lo studio stimava allora che il numero di post lunghi generati dall’IA fosse superiore alla metà. La quota di contenuti automatici, ormai prodotti in quantità industriale, non tarderà quindi a superare la quota di contenuti umani sul web.

Tuttavia, come suggerisce un recente articolo di ricerca[9], i risultati generati perdono di qualità quando i modelli vengono addestrati su contenuti artificiali: allo stesso modo, se si fotocopia un’immagine già fotocopiata, si otterrà un’immagine di qualità inferiore rispetto a quella originale. Oltre ai fenomeni di disinformazione, la tendenza all’uniformazione e alla dequalificazione dei contenuti diffusi rischia di generalizzarsi, proseguendo il processo di “emmerdification” di Internet recentemente identificato dal giornalista Cory Doctorow[10].

Orientarsi nella penombra degli algoritmi

Nonostante le sue promesse (discutibili) in campo economico, lo sviluppo dell’IA solleva quindi numerose questioni politiche, ancora ampiamente sottovalutate dai cittadini e dai poteri pubblici. Mentre l’ideologia dell’Illuminismo oscuro, che promuove la disruption digitale, la deregolamentazione economica e l’autoritarismo politico, si concretizza negli Stati Uniti, sarebbe opportuno interrogarsi sulle politiche tecnologiche che consentono di evitare una tale “accelerazione reazionaria[11]”. Non si tratta ovviamente di tornare all’Illuminismo: non siamo più nell’era del libro, né tantomeno in quella delle industrie culturali, ma in quella della “governamentalità algoritmica” e del “capitalismo computazionale[12]”. Come ricordava Michel Foucault nel suo commento al testo di Kant, non si tratta quindi di «essere a favore o contro l’Aufklärung», ma piuttosto di riattivare un atteggiamento critico nei confronti della nostra attualità e di mettere in luce «gli effetti di potere propri di un discorso considerato scientifico[13]».

Contrariamente a una certa concezione dell’Illuminismo, infatti, i progressi scientifici e tecnologici non sono sempre sinonimo di progresso sociale ed emancipazione politica, in particolare in un contesto in cui le scienze sono diventate tecnoscienze e le tecnologie sono diventate industrie. Nell’era dell’intelligenza artificiale, non abbiamo più a che fare con teorie che descrivono una realtà indipendente e che poi si applicano a quella stessa realtà, ma con innovazioni industriali che trasformano in modo performativo la realtà, finanziate da fondi di capitale di rischio in attesa di un ritorno sugli investimenti. Tali innovazioni, soggette agli imperativi del passaggio di scala e della crescita fulminea, non si sviluppano nell’interesse delle popolazioni: esse sconvolgono le conoscenze e le istituzioni, attraverso un «colpo di Stato permanente[14]», senza lasciare ai cittadini il tempo di riflettere e deliberare.

Non siamo quindi «più nell’era dell’Illuminismo puro, siamo entrati nell’era delle Ombre e delle Luci[15]», in cui ci si deve chiedere come rimettere il cosiddetto «progresso» tecnologico al servizio delle società. In un tale contesto, l’«uscita dallo stato di tutela» passerà senza dubbio attraverso una trasformazione dei sistemi di intelligenza artificiale. Nella loro attuale diffusione, sotto forma di grandi modelli linguistici o algoritmi di raccomandazione egemonici, le tecnologie digitali atrofizzano le capacità psichiche e minacciano i regimi democratici. Non possiamo più ignorare che questi dispositivi condizionano il nostro modo di pensare e di fare società: è tempo di osare mettere le tecnologie algoritmiche al servizio delle menti individuali e collettive.

Osiamo mettere l’IA al servizio della società!

Senza dubbio questo è anche il modo migliore per aumentare la produttività. Cosa potranno mai produrre cittadini privati della loro capacità di riflettere e incapaci di vivere in collettività? L’azienda Anthropic lo ha sicuramente capito bene, tanto da raccomandare ai suoi futuri dipendenti di non utilizzare Claude, il software di IA generativa che essa stessa ha sviluppato. In questi tempi di hubris, forse è necessario anche osare porre dei limiti. L’associazione Tournesol propone quindi di applicare un principio di presunzione di non conformità ai sistemi di IA: si tratterebbe di impedire la diffusione su larga scala di un’innovazione digitale fino a quando non sia stato dimostrato che essa non rappresenta un rischio sistemico per gli utenti[16].

L’ex eurodeputata Marietje Schaake non dice altro quando ricorda che “nel campo della salute” l’innovazione “è sempre accompagnata da rigorosi test clinici e solide garanzie prima che un nuovo trattamento venga applicato alle persone”: «non si dovrebbe considerare l’IA in modo diverso, si tratta di una sperimentazione su larga scala e in tempo reale su tutta la società[17]». Limitare o regolamentare l’introduzione di alcune innovazioni potrebbe dare il tempo di sviluppare dispositivi alternativi, diversificando così il mercato: la regolamentazione non è necessariamente in contrasto con l’innovazione o la competitività. Si tratta proprio di superare le opposizioni tra innovazione e regolamentazione, accelerazione e rallentamento, tecnosoluzionismo e tecnofobia, macchina e uomo o tecnica e pensiero. La sfida consiste invece nel conciliare le tecnologie digitali e le libertà dello spirito.

Lontani dal mito dell’intelligenza artificiale generale caro ai transumanisti, possiamo sviluppare modelli locali e frugali, mirati a compiti specializzati e addestrati su set di dati controllati, che consentono di assistere le decisioni umane in questo o quel campo, senza bypassarle. Possiamo anche limitare l’uso dei grandi generatori di testi o immagini, che saccheggiano le risorse culturali e raccolgono dati personali. Allo stesso modo, invece di sottometterci agli algoritmi opachi dei social network commerciali, possiamo esigere la loro trasparenza, come previsto dal regolamento europeo sui servizi digitali. Possiamo anche obbligare queste piattaforme ad aprirsi ad altri algoritmi alternativi ed esigere un «pluralismo algoritmico[18]», come ci invitano a fare gli Stati Generali dell’Informazione. Infine, possiamo promuovere e sostenere social network senza scopo di lucro, come Mastodon o Bluesky, o investire nello sviluppo di algoritmi collaborativi e piattaforme deliberative, come Tournesol o Pol.is, che consentono di articolare l’esercizio del giudizio umano e i calcoli algoritmici[19].

Tutte queste piste dimostrano che è possibile un futuro al di là delle false alternative tra adattamento e rifiuto o tra luce e oscurità: si tratta piuttosto di aprire la nostra immaginazione tecnologica e di osare mostrare «tecnodiversità[20]», di fronte alla penombra digitale in cui l’IA ci ha immerso.

Note

[1] «Osate l’IA: un piano per diffondere l’IA in tutte le imprese», sito web del Ministero dell’Economia, 1° luglio 2025.

[2] E. Kant, «Risposta alla domanda “Che cos’è l’Illuminismo?”, 1784.

[3] G. da Empoli (a cura di), L’Impero dell’ombra. Guerre et terre au temps de l’IA, Parigi, Gallimard, 2025.

[4] T. Adorno e M. Horkheimer, La dialettica della ragione (1944), Parigi, Gallimard, 1983 (traduzione dal tedesco Dialektik der Aufklärung, che letteralmente significa «dialettica dell’Illuminismo»).

[5] ChatGPT sta distruggendo il cervello umano? 5 punti sul preprint del MIT sugli effetti dell’IA, Le Grand Continent, 19 giugno 2025.

[6] Challenging systematic prejudices: an investigation into bias against women and girls in large language models, Unesco, 2024.

[7] «E. Benvéniste, «Catégories de pensée et catégories de langue», Les Études philosophiques, 13e Année, n° 4, 1958.

[8] H. Verdier e J.-L. Missika, Le Business de la haine. Internet, la démocratie et les réseaux sociaux, Parigi, Calmann- Lévy, 2022.

[9] I. Shumailov, I., Z. Shumaylov, Y. Zhao, et al., « AI models collapse when trained on recursively generated data »,Nature, n° 631, 2024.

[10] C. Doctorow, «The ‘Enshittification’ of TikTok. Or how, exactly, platforms die », Wired, 23 gennaio 2023. Cory Doctorow definisce così il deterioramento della qualità dei servizi forniti dalle piattaforme digitali, in particolare a causa dei loro modelli di business pubblicitari.

[11] L. Castellani, « Avec Trump, l’ère de l’accélération réactionnaire », Le Grand Continent, 8 novembre 2024.

[12] A. Rouvroy e T. Berns, « Gouvernementalité algorithmique et perspectives d’émancipation », Réseaux, n° 177, febbraio-aprile 2014 e B. Stiegler, Dans la disruption, Parigi, Les liens qui libèrent, 2016.

[13] M. Foucault, e M. Foucault, « Il faut défendre la société » Cours au Collège de France 1976, Parigi Seuil, 1997.

[14] M. Schaake, «Le coup d’État permanent de la Silicon Valley», in L’Empire de l’ombre. Guerre et terre au temps de l’IA, Parigi, Gallimard, 2025.

[15] B. Stiegler, Stati di shock. Stupidità e sapere nel XXI secolo, Parigi, Fayard, 2012.

[16] L. Nguyen-Hoang e J.-L. Fourquet, La dittatura degli algoritmi. Una transizione digitale democratica è possibile, Parigi, Tallandier, 2024.

[17] M. Schaake, « Le coup d’État permanent de la Silicon Valley », in L’Empire de l’ombre. Guerre et terre au temps de l’IA, a cura di Giuliano da Empoli, Parigi, Gallimard, 2025.

[18] Vedi « Pour le pluralisme algorithmique », Le Monde, 25 settembre 2024 e Rapporto degli Stati Generali dell’Informazione, « Protéger et développer le droit à l’information, une urgence démocratique », 15 settembre 2024

[19] Vedi i siti di Tournesol (https://tournesol.app/) e Pol.is (https://pol.is/home).

[20] Y. Hui, « Penser la technodiversité autrement », Le Courrier de l’Unesco, 20 marzo 2023.

______________

Anne Alombert è Filosofa, docente di filosofia contemporanea all’Università Paris 8 e membro del Consiglio Nazionale del Digitale.

Fonte: AOCMedia

_____________

Leggere Anne Alombert su acro-polis.it ⇓

La democrazia messa alla prova dall’intelligenza artificiale