Nelle ultime settimane, il sito web di openDemocracy è stato ripetutamente messo offline, come se fosse sotto attacco nemico. La causa è in parte un’enorme raffica di bot automatizzati da parte di aziende di intelligenza artificiale.
Poiché le persone si rivolgono sempre più a chatbot e altri modelli linguistici di grandi dimensioni (LLM) anziché cercare o visitare direttamente i siti, le aziende di intelligenza artificiale utilizzano scraper su larga scala per raccogliere i dati necessari per potenziare i propri servizi.
Molti di questi scraper sono così sofisticati che è difficile, se non impossibile, individuarli in azione. Spesso ignorano le richieste programmatiche dei siti web di non essere sottoposti a scraping e sono noti per colpire ripetutamente le parti più fragili di un sito web.
Per i siti di media, il movimento a tenaglia dell’intelligenza artificiale decima il traffico, compromettendo al contempo la nostra capacità di servire il traffico che riceviamo con queste gigantesche operazioni di scansione.
Grant Slater è uno sviluppatore principale di OpenStreetMap.org , uno strumento di mappe online co-creato da cartografi di tutto il mondo, che contribuiscono e gestiscono dati su strade, sentieri, bar, stazioni e altro ancora. Ha dichiarato a openDemocracy di aver assistito a un “cambiamento radicale” nell’ascesa degli scraper negli ultimi due anni, al punto che OpenStreetMap è ora “in guerra costante” con loro.
“Presumiamo che stiano estraendo dati per alimentare LLM in IA o start-up create per fornire dati di addestramento alle aziende di IA. C’è una corsa agli armamenti in corso sul web: progetti di interesse pubblico vengono colpiti dall’estrazione di dati di IA su scala industriale”, ha affermato.
Slater ha spiegato che “il traffico arriva spesso attraverso IP residenziali anonimi”, riferendosi a reti proxy residenziali che instradano il traffico internet attraverso server intermediari utilizzando indirizzi IP assegnati dai provider di servizi internet ai veri proprietari di abitazioni. Questo, ha affermato, rende “difficile distinguere gli ‘utenti normali’ dalla raccolta automatizzata”.
“Siamo costretti a una modalità di difesa permanente. Le reti proxy residenziali consentono agli scraper di intelligenza artificiale di nascondersi in piena vista, ruotare le identità ed estrarre dati su larga scala. Questo sposta i costi reali su progetti che esistono per servire le persone, non per alimentare i processi di formazione.
“Gli scraper possono ruotare gli indirizzi all’infinito per raccogliere quanti più dati possibili per la formazione LLM, mentre noi abbiamo larghezza di banda, capacità di calcolo e tempo di volontariato limitati. Il risultato è una guerra di logoramento che non abbiamo scelto, in cui mantenere il sito utilizzabile diventa una battaglia continua.”
Le risorse necessarie per tenere a bada questi invasori predatori sono un’altra preoccupazione nella crescente lista di motivi per preoccuparsi dell’IA. I siti web potrebbero presto essere costretti a richiedere prove concrete di umanità a tutti i visitatori, ad esempio insistendo sul fatto che gli utenti abbiano effettuato l’accesso.
Dashboard del traffico web di Cloudflare che mostra l’attività dei bot di gennaio 2026.
“Gli attori che ricavano il massimo valore dal crawling su larga scala sono in gran parte immuni dai costi che questo genera, che vengono assorbiti dagli editori. Devono rispondere limitando l’accesso per sopravvivere”, scrive la ricercatrice Audrey Hingle nel suo articolo ” Getting bots to respect boundaries” .
“Col tempo”, continua Hingle, “questo rischia di accelerare la chiusura: più contenuti riservati, accessi più limitati e una rete a cui è più difficile partecipare”.
Fai attenzione alla tua dieta informativa
L’avanzamento dell’intelligenza artificiale sta avendo un impatto sul modo in cui le persone si tengono informate: sono loro a chiedere ai chatbot notizie e altre richieste di carattere generale.
Gli agenti di intelligenza artificiale, nelle loro varie forme, sono destinati a durare e renderanno alcuni elementi dell’offerta di notizie più personalizzati e approfonditi. Ma le grandi aziende che guidano la carica sono animate da interessi commerciali, come ChatGPT che ora lancia annunci pubblicitari nei suoi prodotti.
La tossicità dei social media , dove gli imperativi finanziari guidano il design, è un modello preoccupante per ciò che accadrà con l’intelligenza artificiale. Allucinazioni, inganni, propaganda e adulazione, per cui sono noti i chatbot , confonderanno ulteriormente le acque.
Poiché la fiducia online sta diventando un fattore sempre più fragile, gli utenti del web devono essere accorti nell’assicurarsi di ottenere informazioni accurate da fonti oneste, esaminando attentamente la provenienza delle notizie e consolidando i collegamenti diretti con organizzazioni affidabili, come le newsletter via e-mail.
Altrettanto importante quanto prestare attenzione a come i chatbot gestiscono la tua dieta informativa è ciò che permetti che ti venga sottratto. L’era dell’intelligenza artificiale prosegue l’era del capitalismo della sorveglianza: i tuoi dati sono ancora il prodotto. Ora sanno più cose su di te che mai, data la profondità delle interazioni con i bot di intelligenza artificiale.
https://www.asterios.it/catalogo/il-capitale-sorvegliante
Con questo in mente, Tony Curzon Price, ex caporedattore di openDemocracy, ha lanciato la prima International Data Union per consentire alle persone di utilizzare gli LLM senza che operatori come OpenAI accumulino dati preziosi da quelle chat.
“I nostri dati, utilizzati sia per il nostro beneficio personale che per quello collettivo, rappresentano l’unico ostacolo che i cittadini comuni incontrano nel controllo della piattaforma e del potere della BigAI. Ho fondato FIDU perché fosse il custode fidato degli interessi dei membri nel cyberspazio”, ha spiegato Curzon Price. “La rapida IA-ficazione del web rende ancora più urgente la creazione di contrappesi significativi all’estrazione di dati su scala planetaria, orientata al profitto, a cui stiamo assistendo nei laboratori di intelligenza artificiale”.
Speriamo che innovazioni come questa diano al pubblico un maggiore controllo sull’intelligenza artificiale nelle proprie vite.
La supervisione e la reazione sono essenziali
Possiamo riconoscere i benefici che i sistemi di intelligenza artificiale possono apportare e tuttavia avere la sensazione che gli effetti negativi possano superare quelli positivi.
La competizione per vincere la corsa all’intelligenza artificiale sta già producendo molteplici conseguenze dannose. Dall’espansione di data center distruttivi per l’ambiente , all’uso dell’intelligenza artificiale per la pedofilia o altri abusi sessuali , ai contorti “bot terapeutici” e alla potenziale sostituzione degli esseri umani nella società in generale, gli effetti sono sorprendenti e si stanno rivelando rapidamente.
Persino i leader del settore che hanno a cuore i risultati sono coinvolti in questa dinamica volta a produrre superintelligence , che è anche una battaglia bellicosa per la sicurezza nazionale tanto quanto commerciale. Non c’è nemmeno un punto di arrivo chiaro per questa lotta, anche se alcuni hanno immaginato dove potremmo finire .
Nel frattempo, i cittadini attivi devono esercitare pressione politica per garantire che l’industria non inquini eccessivamente, non provochi il prossimo crollo finanziario o non avveleni il pozzo dell’informazione pubblica.
Per ora, mantieni la tua indipendenza e mantieni i contatti con i media di cui ti fidi, lontano dalle piattaforme aziendali di dubbia integrità.

In un’epoca che corre verso l’artificializzazione totalitaria del mondo, Luciano Boi e Stefano Isola pongono la domanda essenziale: quale sarà il posto dell’uomo nella società futura? La direzione dei mutamenti in atto sta conducendo, infatti, verso una crescente marginalizzazione del contributo umano dagli accadimenti significativi dell’esistenza, esiliando l’uomo nel “regno dell’insignificanza”, alla periferia di un universo rifondato sull’imperio degli algoritmi, sul “non pensiero” dell’intelligenza artificiale, sulla volontà di potenza di macchine che simulano intenzioni e decisioni umane, rovesciando il principio di utilità della tecnica in quello di utilità per la tecnica.
Il “regno dell’insignificanza” è quello dove i corpi sono sostituiti dai profili; le relazioni dalle connessioni; la comunità dalla community; la città dalla smart city; la politica dalla governance; la scuola dall’eduverso; il linguaggio dal messaggio; le professioni dai robot.