Le aziende “data-opolies” giganti pianificano di leggere la tua mente e controllare le tue emozioni. Si possono fermare?

Google. Amazon. Facebook. Mela. Viviamo all’interno dei mondi digitali che hanno creato e ci sono sempre più poche possibilità di fuga. Conoscono la nostra personalità. Registrano se siamo impulsivi o inclini all’ansia. Capiscono come rispondiamo a storie tristi e immagini violente. E usano questo potere, che deriva dall’incessante estrazione dei nostri dati personali tutto il giorno, ogni giorno, per manipolarci e crearci dipendenza.

Il professore di giurisprudenza dell’Università del Tennessee Maurice Stucke fa parte di un’avanguardia progressista e antimonopolistica di esperti che si occupano di privacy, concorrenza e protezione dei consumatori nell’economia digitale. Nel suo nuovo libro, Breaking Away: How to Regain Control Over Our Data, Privacy, and Autonomy , spiega come questi giganti della tecnologia si siano trasformati in “opzioni di dati”, che sono molto più pericolose dei monopoli di ieri. La loro invasione della privacy è diversa da qualsiasi cosa il mondo abbia mai visto ma, come sostiene Stucke, il loro potenziale di manipolarci è ancora più spaventoso.

Con il potere enorme e senza precedenti di queste quattro aziende, quali strumenti abbiamo per sfidarle efficacemente? Stucke spiega perché le attuali proposte di smantellare, regolamentare le loro attività e incoraggiare la concorrenza non sono all’altezza di ciò che è necessario per affrontare la minaccia che rappresentano non solo per i nostri portafogli e benessere individuali, ma per l’intera economia e per la democrazia stessa.

Lynn Parramore: Le grandi aziende che raccolgono e trasferiscono dati – come le chiami “data-opolies” – perché rappresentano un tale pericolo?

Maurice Stucke : La gente diceva che le aziende dominanti come Google devono essere benigne perché i loro prodotti e servizi sono gratuiti (o a basso prezzo, come Amazon) e investono molto in ricerca e sviluppo e aiutano a promuovere l’innovazione. Lo studioso di diritto Robert Bork ha affermato che Google non può essere un monopolio perché i consumatori non possono essere danneggiati quando non devono pagare.

Ho scritto un articolo per l’Harvard Business Review rivisitando quel pensiero e chiedendo quali danni possono porre le data-opolies dei dati. Ho escogitato una tassonomia di come possono invadere la nostra privacy, ostacolare l’innovazione, influenzare indirettamente i nostri portafogli e persino minare la democrazia. Nel 2018 ho parlato con il legislatore canadese di questi potenziali danni e mi aspettavo molti respingimenti. Ma uno dei legislatori ha subito detto: “Ok, quindi cosa faremo al riguardo?”

Negli ultimi cinque o sei anni, abbiamo avuto un cambiamento epocale nel modo di vedere le data-opolies dei dati. Le persone erano solite sostenere che la privacy e la concorrenza non fossero correlate. Ora c’è la preoccupazione che non solo queste gigantesche aziende tecnologiche rappresentino un grave rischio per la nostra democrazia, ma anche gli strumenti attuali per affrontarle siano insufficienti.

Ho fatto molte ricerche e ho parlato davanti a molte autorità garanti della concorrenza e ho ascoltato le proposte che stavano prendendo in considerazione. Ho capito che non c’era una soluzione semplice. Questo ha portato al libro. Ho visto che anche se tutte le proposte fossero state approvate, ci sarebbero comunque delle carenze.

LP: Cosa rende i monopoli dei dati ancora più potenzialmente dannosi dei monopoli tradizionali?

MS: Primo, hanno armi che mancavano ai precedenti monopoli. Un precedente monopolio non poteva necessariamente identificare tutte le nascenti minacce competitive. Ma i data-opoli hanno quello che chiamiamo un “radar di trasmissione”. Ciò significa che attraverso il flusso di dati possono vedere come i consumatori utilizzano i nuovi prodotti, come questi nuovi prodotti stanno guadagnando in scala e come si stanno espandendo. Ad esempio, Facebook (FB) aveva, ironia della sorte, un’app per la privacy che uno dei dirigenti chiamava “il regalo che continuava a fare”. Attraverso i dati raccolti tramite l’app, hanno riconosciuto che WhatsApp era una minaccia per FB come social network perché stava iniziando a trasformarsi da semplice servizio di messaggistica.

Un altro vantaggio è che, anche se i vari data-opolies hanno modelli di business leggermente diversi e si occupano di aspetti diversi dell’economia digitale, si basano tutti sullo stesso toolkit anticoncorrenziale — lo chiamo “ACK: Acquire, Copy, or Kill”. ” Hanno meccanismi più grandi per identificare potenziali minacce e acquisirle o, se respinte, copiarle. I vecchi monopoli potrebbero copiare i prodotti, ma i data-opolies possono farlo in un modo che priva il rivale di scala, il che è fondamentale. E hanno più armi per uccidere le nascenti minacce competitive.

L’altra grande differenza tra i data-opolies di oggi e i monopoli di un tempo è la portata degli effetti anticoncorrenziali. Un monopolio dei tempi passati (diverso, diciamo, un’azienda di giornali), potrebbe semplicemente portare meno innovazione e prezzi leggermente più alti. General Motors potrebbe darti auto di qualità inferiore o con meno innovazione e potresti pagare un prezzo più alto. Nell’industria siderurgica, potresti ottenere impianti meno efficienti, prezzi più alti e così via (e ricorda, noi come società paghiamo per quei monopoli). Ma con le data-opolies dei dati, il danno non è solo per i nostri portafogli.

Puoi vederlo con FB. Non è solo che estraggono più soldi dalla pubblicità comportamentale; è l’effetto che i loro algoritmi hanno sul discorso sociale, sulla democrazia e sulla nostra intera economia ( i ” File di Facebook ” del Wall Street Journal lo hanno davvero portato alla ribalta). Ci sono danni significativi al nostro benessere.

LP: In che modo la pubblicità comportamentale è diversa dalla pubblicità normale? Dopotutto, un annuncio per una barretta di cioccolato vuole che cambi il mio comportamento per acquistare più barrette di cioccolato. Cosa significa per un’azienda come Facebook vendere la capacità di modificare il comportamento di una ragazza adolescente?

MS: La pubblicità comportamentale è spesso presentata solo come un modo per offrirci annunci più pertinenti. C’è un’opinione secondo cui le persone hanno queste richieste e desideri preconcetti e che la pubblicità comportamentale si limita a fornire loro annunci più pertinenti e reattivi. Ma il cambiamento con la pubblicità comportamentale è che non stai più solo prevedendo il comportamento, lo stai manipolando.

Diciamo che un adolescente sta andando al college e ha bisogno di un nuovo laptop. FB può indirizzarla con laptop pertinenti che soddisfino le sue esigenze particolari, riducendo i suoi costi di ricerca e migliorandola di conseguenza. Andrebbe bene, ma non è qui che siamo. Le innovazioni si concentrano sulla comprensione delle emozioni e sulla loro manipolazione. Un’adolescente potrebbe essere presa di mira non solo con annunci pubblicitari, ma con contenuti destinati ad aumentare e sostenere la sua attenzione. Comincerà a essere sommersa da immagini che tendono ad aumentare la sua convinzione nella sua inferiorità e a farla sentire meno sicura. Il suo benessere è ridotto. Sta diventando più probabile che sia depressa. Per alcuni utenti di Instagram, ci sono maggiori pensieri sul suicidio.

E non sono solo le data-opolies dei dati. Le app di gioco d’azzardo sono orientate a identificare le persone inclini alla dipendenza e a manipolarle per giocare d’azzardo. Queste app possono prevedere quanti soldi possono guadagnare da queste persone e come attirarli indietro, anche quando hanno difficoltà finanziarie. Come ha affermato un avvocato, queste app di gioco trasformano la dipendenza in codice.

Questo è molto preoccupante e andrà anche peggio. Le data-opolies dei dati si stanno spostando dall’affrontare richieste preconcette alla guida e alla creazione di richieste. Stanno chiedendo, cosa ti farà piangere? Cosa ti renderà triste? Microsoft ha un’innovazione in base alla quale hai una fotocamera che traccerà quali eventi particolari ti fanno provare emozioni particolari, fornendo una visione personalizzata degli stimoli per individui particolari. È come se se ti colpissi la gamba qui, potessi avere questo riflesso. C’è un marketing che dice: “Se li fai piangere, li fai comprare”. Oppure, se sei il tipo di persona che risponde alle immagini violente, verrai indirizzato a un mercato mirato alla tua psiche per indurre il comportamento a comprare, diciamo, una pistola.

La cosa spaventosa è che questi strumenti non vengono messi in quarantena per la pubblicità comportamentale; i partiti politici utilizzano strumenti simili per guidare il comportamento degli elettori. Ottieni un po’ di informazioni su questo con Cambridge Analytica. Non si trattava solo di indirizzare l’individuo con un messaggio su misura per convincerlo a votare per un determinato candidato; si trattava di prendere di mira altri cittadini che non avrebbero votato per il tuo candidato per dissuaderli dal votare. Abbiamo già visto dai file di FB che gli algoritmi creati dai data-opolies stanno anche facendo sì che i partiti politici rendano i messaggi più negativi perché questo è ciò che viene premiato.

LP: Fino a che punto pensi possa arrivare la manipolazione?

MS: La prossima frontiera è in realtà leggere i pensieri degli individui. In un prossimo libro con Arial Ezrachi, How Big Tech Barons Smash Innovation e How to Strike Back, parliamo di un esperimento condotto dall’Università della California, San Francisco, dove per la prima volta sono stati in grado di decodificare i pensieri di un individuo. Una persona che soffriva di paralisi del linguaggio provava a dire una frase e, quando l’algoritmo ha decifrato i segnali del cervello, i ricercatori sono stati in grado di capire cosa stava cercando di dire la persona. Quando i ricercatori hanno chiesto alla persona: “Come stai?” l’algoritmo potrebbe decifrare la sua risposta dalla sua attività cerebrale. L’algoritmo potrebbe decodificare circa 18 parole al minuto con una precisione del 93%. In primo luogo, la tecnologia decifra le parole che stiamo cercando di dire e identificherà dai nostri sottili schemi cerebrali un lessico di parole e vocabolario. Man mano che l’IA migliora, decodificherà i nostri pensieri. Si scopre che FB è stato uno dei contributori che hanno finanziato la ricerca e ci siamo chiesti perché. Bene, questo perché stanno preparando queste cuffie per il metaverso che non solo probabilmente trasmetteranno tutta la violenza e il conflitto dei social media, ma possono potenzialmente decodificare i pensieri di un individuo e determinare come vorrebbe essere percepito e presentarsi nel metaverso. Avrai un regno di personalizzazione completamente diverso.

Siamo davvero in una corsa agli armamenti in cui le aziende non possono permettersi unilateralmente di diminuire l’escalation perché poi perdono un vantaggio competitivo. È una corsa per sfruttare meglio gli individui. Come è stato detto, i dati vengono raccolti su di noi, ma non sono per noi.

LP: Molte persone pensano che una maggiore concorrenza aiuterà a ridurre queste pratiche, ma il tuo studio è piuttosto scettico sul fatto che una maggiore concorrenza tra le grandi società di piattaforme risolverà molti dei problemi. Puoi spiegare perché hai questo punto di vista? In che modo la concorrenza stessa è tossica in questo caso?

MS: Il presupposto è che se ci limitiamo a tenere a freno le data-opolies dei dati e magari le interrompiamo o ne regoliamo il comportamento, staremo meglio e la nostra privacy sarà migliorata. C’era, in una certa misura, una maggiore protezione della nostra privacy mentre queste data-opolies dei dati erano ancora nelle loro fasi nascenti. Quando MySpace era ancora un fattore significativo, FB non poteva permettersi di essere così rapace nella sua raccolta di dati come lo è ora. Ma ora hai tutta questa catena del valore costruita sull’estrazione di dati per manipolare il comportamento; quindi, anche se questo diventasse più competitivo, non vi è alcuna garanzia che ne trarremo vantaggio. Invece di avere Meta, potremmo avere FB separato da Instagram e WhatsApp. Ebbene, ci sarebbero ancora aziende dipendenti dalle entrate pubblicitarie comportamentali in competizione tra loro per trovare modi migliori per attirarci, farci diventare dipendenti, e quindi manipolare il comportamento. Puoi vedere come è successo con TikTok. L’aggiunta di TikTok al mix non ha migliorato la nostra privacy.

LP: Quindi un giocatore in più aggiunge solo un altro attacco alla tua privacy e al tuo benessere?

MS: Giusto. Ariel ed io abbiamo scritto un libro, Competition Overdose , in cui abbiamo esplorato situazioni in cui la concorrenza potrebbe essere tossica. Le persone tendono a presumere che se il comportamento è favorevole alla concorrenza è positivo e se è anticoncorrenziale è negativo. Ma la concorrenza può essere tossica in diversi modi, come quando è una corsa al ribasso. A volte le aziende non possono ridurre unilateralmente l’escalation e semplicemente aggiungendo più aziende al mix, avrai solo una corsa più rapida al ribasso.

LP: Alcuni analisti hanno suggerito che concedere alle persone diritti di proprietà più ampi sui propri dati aiuterebbe a controllare le società di big data, ma sei scettico. Puoi spiegare le fonti dei tuoi dubbi?

MS: Un mercato che funzioni correttamente richiede la presenza di determinate condizioni. Quando si tratta di dati personali, molte di queste condizioni sono assenti, come esplora il libro. In primo luogo, c’è lo squilibrio della conoscenza. I mercati funzionano bene quando le parti contraenti sono pienamente informate. Quando acquisti una vite in un negozio di ferramenta, ad esempio, conosci il prezzo prima di acquistarla. Ma non conosciamo il prezzo che paghiamo quando consegniamo i nostri dati, perché non conosciamo tutti i modi in cui i nostri dati verranno utilizzati o il danno che ne potrebbe derivare. Supponiamo che tu scarichi un’app apparentemente gratuita, ma che raccolga, tra le altre cose, la tua geolocalizzazione. Nessuna lista di controllo afferma che questi dati di geolocalizzazione potrebbero essere potenzialmente utilizzati da stalker o dal governo o per manipolare i tuoi figli. Semplicemente non lo sappiamo. Entriamo in queste transazioni alla cieca. Quando acquisti una scatola di viti, puoi valutarne rapidamente il valore. Devi solo moltiplicare il prezzo di una vite. Ma non puoi farlo con i punti dati. Molti punti dati possono essere molto più dannosi per la tua privacy rispetto alla semplice somma di ciascun punto dati. È come cercare di valutare un dipinto di Georges Seurat valorizzando ogni punto. Devi vedere il quadro generale; ma quando si tratta di dati personali, l’unico che ha una visione più ampia è l’azienda che accumula tali dati, non solo attraverso i propri siti Web ma anche nell’acquisizione di dati di terze parti.

Quindi non sappiamo nemmeno il danno aggiuntivo che ogni punto dati aggiuntivo potrebbe avere sulla nostra privacy. Non possiamo valutare il valore dei nostri dati e non conosciamo il costo della rinuncia a quei dati. Non possiamo quindi dire, va bene, ecco il vantaggio che ricevo: posso usare FB e capisco i costi per me.

Un altro problema è che normalmente un diritto di proprietà implica qualcosa che è escludibile, definibile e facile da assegnare, come avere un interesse di proprietà in un pezzo di terra. Puoi mettere una recinzione attorno ad esso ed escludere altri dall’usarlo. È facile identificare ciò che è tuo. Puoi quindi assegnarlo ad altri. Ma con i dati, non è sempre così. C’è un’idea chiamata “privacy in rete” e la preoccupazione è che le scelte che altri fanno in termini di dati che vendono o rinunciano possono avere un effetto negativo sulla tua privacy. Ad esempio, forse decidi di non cedere i tuoi dati DNA a 23andMe. Se un parente rinuncia al proprio DNA, ciò implicherà la tua privacy. La polizia può guardare una corrispondenza del DNA e dire, ok, probabilmente è qualcuno all’interno di una particolare famiglia. La scelta da parte di uno può influire sulla privacy degli altri. O forse qualcuno pubblica una foto di tuo figlio su FB che non volevi che fosse pubblicata. Oppure qualcuno ti invia un messaggio personale con Gmail o un altro servizio con poche protezioni della privacy. Quindi, anche se hai un diritto di proprietà sui tuoi dati, le scelte di altri possono influire negativamente sulla tua privacy.

Se abbiamo diritti di proprietà sui tuoi dati, come cambia le cose? Quando Mark Zuckerberg ha testimoniato davanti al Congresso dopo lo scandalo Cambridge Analytica, gli è stato costantemente chiesto chi fosse il proprietario dei dati. Continuava a dire che l’utente lo possiede. È stato difficile per i senatori capire perché gli utenti di certo non hanno acconsentito alla condivisione dei loro dati con Cambridge Analytica per avere un impatto sulle elezioni presidenziali. FB può dirti che possiedi i dati, ma per parlare con i tuoi amici, devi essere sulla stessa rete dei tuoi amici e FB può facilmente dirti: “Ok, potresti possedere i dati, ma per usare FB dovrai darci un accesso impareggiabile ad esso. Che scelta hai?

L’ecosistema digitale ha molteplici effetti di rete per cui i grandi diventano più grandi e diventa più difficile cambiare. Se mi viene detto che possiedo i miei dati, sarà comunque molto difficile per me evitare le data-opolies dei dati. Per fare una ricerca, userò ancora Google, perché se vado su DuckDuckGo non otterrò un risultato altrettanto buono. Se voglio vedere un video, vado su YouTube. Se voglio vedere le foto della recita scolastica, è probabile che siano su FB. Quindi, quando la disuguaglianza nel potere contrattuale è così profonda, possedere i dati non significa molto.

Queste data-opolies dei dati generano miliardi di entrate dai nostri dati. Anche se offri ai consumatori la proprietà dei loro dati, queste potenti aziende avranno comunque un forte incentivo a continuare a ottenere quei dati. Quindi un’altra area di preoccupazione tra i responsabili politici oggi sono i “modelli oscuri”. Questo è fondamentalmente nel usare l’economia comportamentale per il male. Le aziende manipolano il comportamento nel modo in cui inquadrano le scelte, impostando tutti i tipi di ostacoli procedurali che impediscono di ottenere informazioni su come vengono utilizzati i dati. Possono rendere molto difficile rinunciare a determinati usi. Fanno in modo che il comportamento desiderato sia privo di attrito e il comportamento indesiderato abbia molto attrito. Ti logorano.

LP: Sei enfatico sulle molte cose buone che possono derivare dalla condivisione di dati che non minacciano le persone. Appoggi la tua argomentazione su ciò che gli economisti chiamano il carattere “non rivale” di molte forme di dati — che l’uso dei dati da parte di una persona non necessariamente sminuisce affatto altri buoni usi dei dati da parte di altri. Notate come le aziende di big data, tuttavia, spesso si sforzano di mantenere i propri dati privati ​​in modi che impediscono alla società di farlo a nostro vantaggio collettivo. Puoi guidarci attraverso la tua argomentazione?

MS: Questo può accadere a diversi livelli. A un livello, immagina tutte le intuizioni su molte discipline diverse che potrebbero essere raccolte dai dati di FB. Se i dati fossero condivisi con più università, i ricercatori potrebbero raccogliere molte informazioni sulla psicologia umana, la filosofia politica, la salute e così via. Allo stesso modo, i dati dei dispositivi indossabili potrebbero anche essere un punto di svolta per la salute, fornendoci migliori predittori di malattie o migliori identificatori di cose da evitare. Immagina tutte le scoperte mediche se i ricercatori avessero accesso a questi dati.

Su un altro livello, il governo può ridurre i tempi e i costi per accedere a questi dati. Considera tutti i dati estratti dai siti web del governo, come il Bureau of Labor Statistics. Risale all’intuizione di John Stuart Mill secondo cui una delle funzioni del governo è raccogliere dati da tutte le diverse fonti, aggregarli e quindi consentirne la diffusione. Ciò che ha colto è la natura non rivale dei dati e come i dati possono aiutare a informare l’innovazione, aiutare a informare la democrazia e fornire altre informazioni utili.

Quindi, quando alcune potenti aziende accumulano dati personali, ne catturano parte del valore. Ma molto valore potenziale non viene sfruttato. Ciò è particolarmente problematico quando le innovazioni nel deep learning per l’IA richiedono set di dati di grandi dimensioni. Per sviluppare questa tecnologia di deep learning, devi avere accesso alle materie prime. Ma coloro che possiedono questi grandi set di dati li danno selettivamente alle istituzioni per gli scopi di ricerca che desiderano. Porta alla creazione di “dati che hanno” e “non hanno”. Un’opposizione ai dati può anche influenzare il percorso dell’innovazione.

Una volta che vedi l’accumulo di dati, vedi che molto valore per la società è rimasto sul tavolo.

LP: Quindi, con le data-opolies dei dati, le cose socialmente utili che potrebbero derivare dalla raccolta di dati personali vengono bloccate mentre vengono perseguite le cose socialmente dannose?

MS: Sì. Ma il fatto che i dati non siano rivali non significa necessariamente che dovremmo quindi fornire i dati a tutti coloro che possono estrarne valore. Come si discute nel libro, molti possono trarre valore dai tuoi dati di geolocalizzazione, inclusi gli stalker e il governo nel sorvegliare la sua gente. Il fatto che derivino valore non significa che la società nel complesso tragga valore da tale uso. La Corte Suprema si è pronunciata in Carpenter v United States che il governo ha bisogno di ottenere un mandato di perquisizione supportato con probabile causa prima di poter accedere ai nostri dati di geolocalizzazione. Ma l’amministrazione Trump ha detto, aspetta, perché abbiamo bisogno di un mandato quando possiamo semplicemente acquistare dati di geolocalizzazione attraverso database commerciali che mappano ogni giorno i nostri movimenti attraverso i nostri cellulari? Quindi hanno effettivamente acquistato dati di geolocalizzazione per identificare e localizzare le persone che si trovavano illegalmente in questo paese.

Una volta che il governo accede ai nostri dati di geolocalizzazione attraverso fonti commerciali, può utilizzarli in diversi usi. Pensa a come questi dati potrebbero essere utilizzati in relazione alle cliniche per l’aborto. Roe v. Wade è stato costruito sull’idea che la Costituzione protegga la privacy, che è uscita da Griswald v. Connecticut in cui la Corte ha formulato un diritto alla privacy per consentire alle coppie sposate di utilizzare il controllo delle nascite. Ora alcuni dei giudici ritengono che la Costituzione non dica nulla sulla privacy e che non ci sia alcun diritto fondamentale e inalienabile ad essa. Se è così, le preoccupazioni sono grandi.

LP: Il tuo libro apprezza in modo critico le recenti leggi californiane ed europee sulla privacy dei dati. Cosa pensi che sia buono in loro e cosa pensi che non sia utile?

MS: Il California Privacy Right Act del 2020 è stato sicuramente un progresso rispetto allo statuto del 2018, ma non ci porta ancora fino in fondo.

Un problema è che la legge consente ai clienti di rinunciare a quella che viene chiamata “pubblicità comportamentale cross-context”. Puoi dire: “Non voglio avere un cookie che poi mi tenga traccia mentre vado attraverso i siti web”. Ma non impedisce ai data-opolies o a qualsiasi piattaforma di raccogliere e utilizzare dati proprietari per la pubblicità comportamentale a meno che non siano considerati dati personali sensibili. Quindi FB può continuare a raccogliere informazioni su di noi quando siamo sul suo social network.

E in realtà inclinerà ancora di più il campo di gioco verso le data-opolies perché ora i giocatori più piccoli devono fare affidamento sul tracciamento su più siti Web e broker di dati per raccogliere informazioni perché non hanno molti dati proprietari (dati che raccolgono direttamente).

Facciamo un esempio. Il New York Times avrà buoni dati sui suoi lettori quando leggeranno un articolo online. Ma senza tracker di terze parti, non avranno molti dati su ciò che i lettori stanno facendo dopo averlo letto. Non sanno dove sono andati i lettori, quale video hanno guardato, quali altri siti web sono andati a visitare.

Man mano che trascorriamo più tempo all’interno degli ecosistemi delle data-opolies, queste aziende avranno più informazioni sul nostro comportamento. Paradossalmente, rinunciare alla pubblicità comportamentale cross-context andrà a beneficio dei giocatori più potenti che raccolgono più dati proprietari — e non sono solo dati proprietari, sono i dati proprietari che possono aiutarli a manipolare meglio il nostro comportamento.

Quindi il caso del libro è che se vogliamo davvero fare le cose per bene, se vogliamo riadattarci e riguadagnare la nostra privacy, la nostra autonomia e la nostra democrazia, allora non possiamo semplicemente fare affidamento sugli strumenti di politica della concorrenza esistenti. Non possiamo fare affidamento esclusivamente su molte delle proposte dall’Europa o da altre giurisdizioni. Sono necessari ma non sono sufficienti. Per raddrizzare la nave, dobbiamo allineare le politiche sulla privacy, sulla concorrenza e sulla protezione dei consumatori. Ci saranno momenti in cui privacy e concorrenza entreranno in conflitto. È inevitabile, ma possiamo ridurre al minimo questo potenziale conflitto armonizzando prima le politiche. Un modo per farlo è assicurarsi che la concorrenza che otteniamo sia una sana forma di concorrenza che ci avvantaggia piuttosto che sfruttarci. Per fare ciò, si tratta davvero di perseguire la pubblicità comportamentale. Se vuoi correggere questo problema devi affrontarlo. Nessuna delle proposte politiche fino ad oggi ha davvero preso in considerazione la pubblicità comportamentale e gli incentivi perversi che crea.

Fonte: Institute for New Economic Thinking, 31 Maggio, 2022

_________________________________________________________________________

 

L’epoca del panoptismo digitale

https://www.asterios.it/catalogo/il-feudalesimo-digitale

https://www.asterios.it/catalogo/la-nostra-vita-senza-la-liberta