L’impiego dell’intelligenza artificiale predittiva dalla polizia è in ascesa: renderla responsabile nei confronti del pubblico potrebbe frenarne gli effetti dannosi

Di seguito alcune regole da seguire per non essere sorvegliati:

  • ♠ Dimenticando spesso il proprio telefono a casa.
  • ♣ Usando i mezzi pubblici di trasporto si evitano i lettori di targhe.
  • ♥ Un abbigliamento diverso dal solito, dal serio al casual e viceversa, occhiali scuri e altri accorgimenti vi aiuta ad evitare di essere riconosciuti dalle milioni di telecamere messe in ogni angolo della strada.
  • ♦ Dovete resistere alla pressione di utilizzare app “gratuite” come WhatsApp e Line poiché la raccolta, la vendita e l’uso illegale dei vostri dati è presumibilmente ciò che paga il servizio. Anzi è certo!
  • ♠ Usate il contante dove e quando è possibile.

AD


⇐⇓⇒

La lettura di acro-polis.it, Quotidiano di idee, per la Libertà, la Pace e la Giustizia sociale e climatica è gratuita, ma la pubblicazione non è gratuita, ha dei costi. Se ti piace il contenuto:

Aiutaci a rimanere Paywall-free ♥ Contribuisci acquistando i volumi delle nostre collane di libri su carta, e delle edizioni di www.asterios.it

Il thriller fantascientifico del 2002 ” Minority Report ” descriveva un futuro distopico in cui un’unità di polizia specializzata aveva il compito di arrestare persone per crimini che non avevano ancora commesso. Diretto da Steven Spielberg e basato su un racconto di Philip K. Dick, il dramma ruotava attorno al “PreCrime”, un sistema creato da un trio di sensitivi, o “precog”, che prevedeva futuri omicidi, consentendo agli agenti di polizia di intervenire e impedire ai potenziali aggressori di mietere vittime.

Il film affronta questioni etiche complesse: come può qualcuno essere ritenuto colpevole di un crimine che non ha ancora commesso? E cosa succede quando il sistema sbaglia?

Sebbene non esista un “precognitore” onniveggente, i componenti chiave del futuro immaginati da “Minority Report” sono diventati realtà ancora più rapidamente di quanto i suoi creatori avessero immaginato. Per oltre un decennio, i dipartimenti di polizia di tutto il mondo hanno utilizzato sistemi basati sui dati volti a prevedere quando e dove potrebbero verificarsi crimini e chi potrebbe commetterli.

Lungi dall’essere un concetto astratto o futuristico, la polizia predittiva è una realtà. E gli analisti di mercato prevedono un boom per questa tecnologia.

Date le difficoltà nell’utilizzo efficace ed equo dell’apprendimento automatico predittivo, la polizia predittiva solleva significative preoccupazioni etiche . In assenza di soluzioni tecnologiche all’orizzonte, esiste un approccio per affrontare queste preoccupazioni: trattare l’uso della tecnologia da parte del governo come una questione di responsabilità democratica.


https://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale


Storia inquietante

La polizia predittiva si basa sull’intelligenza artificiale e sull’analisi dei dati per anticipare potenziali attività criminali prima che si verifichino. Può comportare l’analisi di ampi set di dati tratti da denunce di reati, registri degli arresti e informazioni sociali o geografiche per identificare modelli e prevedere dove potrebbero verificarsi reati o chi potrebbe essere coinvolto.

Le forze dell’ordine utilizzano l’analisi dei dati per tracciare tendenze generali da decenni. Le potenti tecnologie di intelligenza artificiale odierne, tuttavia, elaborano enormi quantità di dati provenienti da attività di sorveglianza e denunce di reati per fornire analisi molto più dettagliate.

I dipartimenti di polizia utilizzano queste tecniche per determinare dove concentrare le proprie risorse. La previsione basata sul luogo si concentra sull’identificazione di luoghi ad alto rischio, noti anche come punti caldi, dove statisticamente è più probabile che si verifichino reati. La previsione basata sulla persona , al contrario, cerca di segnalare gli individui considerati ad alto rischio di commettere o diventare vittime di reati.

Questi tipi di sistemi sono stati oggetto di notevole preoccupazione pubblica. Nell’ambito di un cosiddetto programma di ” polizia guidata dall’intelligence ” nella contea di Pasco, in Florida, il dipartimento dello sceriffo ha compilato un elenco di persone considerate a rischio di commettere reati e ha poi inviato ripetutamente agenti presso le loro abitazioni. Oltre 1.000 residenti di Pasco, compresi minorenni, sono stati sottoposti a visite casuali da parte di agenti di polizia e sono stati citati per reati come la mancanza di numeri di cassetta postale e l’erba alta.

Le cause legali hanno costretto l’ufficio dello sceriffo della contea di Pasco, in Florida, a porre fine al suo problematico programma di polizia predittiva.

Quattro residenti hanno fatto causa alla contea nel 2021 e l’anno scorso hanno raggiunto un accordo in cui l’ufficio dello sceriffo ha ammesso di aver violato i diritti costituzionali dei residenti alla privacy e alla parità di trattamento ai sensi della legge. Da allora, il programma è stato interrotto.

Questo non è un problema che riguarda solo la Florida. Nel 2020, Chicago ha dismesso la sua “Strategic Subject List “, un sistema in cui la polizia utilizzava l’analisi dei dati per prevedere quali pregressi criminali avrebbero potuto commettere nuovi reati o diventare vittime di future sparatorie. Nel 2021, il Dipartimento di Polizia di Los Angeles ha interrotto l’utilizzo di PredPol , un software progettato per prevedere i punti caldi della criminalità, ma è stato criticato per i bassi tassi di accuratezza e per il rafforzamento di pregiudizi razziali e socioeconomici.

Innovazioni necessarie o esagerazioni pericolose?

Il fallimento di questi programmi di alto profilo evidenzia una tensione critica: sebbene le forze dell’ordine spesso sostengano l’uso di strumenti basati sull’intelligenza artificiale per la sicurezza pubblica, gruppi per i diritti civili e studiosi hanno sollevato preoccupazioni in merito a violazioni della privacy, problemi di responsabilità e mancanza di trasparenza. E nonostante questi abbandoni di alto profilo dalla polizia predittiva, molti dipartimenti di polizia più piccoli continuano a utilizzare questa tecnologia .

La maggior parte dei dipartimenti di polizia americani non dispone di politiche chiare sul processo decisionale algoritmico e fornisce poche o nessuna informazione su come i modelli predittivi che utilizzano vengono sviluppati, addestrati o monitorati per verificarne l’accuratezza o eventuali distorsioni. Un’analisi della Brookings Institution ha rilevato che in molte città le amministrazioni locali non disponevano di documentazione pubblica sul funzionamento dei software di polizia predittiva, sui dati utilizzati o sulle modalità di valutazione dei risultati.

La polizia predittiva può perpetuare i pregiudizi razziali.

Questa opacità è ciò che nel settore viene definito ” scatola nera “. Impedisce una supervisione indipendente e solleva seri interrogativi sulle strutture che circondano il processo decisionale basato sull’intelligenza artificiale. Se un cittadino viene segnalato come ad alto rischio da un algoritmo, quali sono le sue possibilità di ricorso? Chi vigila sull’equità di questi sistemi? Quali meccanismi di supervisione indipendenti sono disponibili?

Questi interrogativi stanno alimentando accesi dibattiti nelle comunità sull’opportunità di riformare il metodo di polizia predittiva, regolamentarlo più rigorosamente o abbandonarlo del tutto . Alcuni considerano questi strumenti innovazioni necessarie, mentre altri li considerano un pericoloso abuso.

Da leggere ancora ⇓

Difendere la privacy nello Stato di sorveglianza e frammentare Internet

Un modo migliore a San Jose

Ma è dimostrato che strumenti basati sui dati, fondati sui valori democratici del giusto processo, della trasparenza e della responsabilità, potrebbero offrire un’alternativa più solida agli attuali sistemi di polizia predittiva. Cosa succederebbe se il pubblico potesse comprendere il funzionamento di questi algoritmi, su quali dati si basano e quali garanzie esistono per prevenire esiti discriminatori e l’uso improprio della tecnologia?

La città di San Jose, in California, ha avviato un processo volto ad aumentare la trasparenza e la responsabilità nell’uso dei sistemi di intelligenza artificiale. San Jose si attiene a una serie di principi di intelligenza artificiale che impongono che tutti gli strumenti di intelligenza artificiale utilizzati dall’amministrazione cittadina siano efficaci, trasparenti per il pubblico ed equi nei loro effetti sulla vita delle persone. I dipartimenti comunali sono inoltre tenuti a valutare i rischi dei sistemi di intelligenza artificiale prima di integrarli nelle proprie attività.

Se adottate correttamente, queste misure possono effettivamente aprire la scatola nera, riducendo drasticamente la possibilità che le aziende di intelligenza artificiale nascondano il proprio codice o i propri dati dietro meccanismi come la protezione dei segreti commerciali. Consentire il controllo pubblico dei dati di addestramento può rivelare problemi come pregiudizi razziali o economici, che possono essere mitigati ma sono estremamente difficili, se non impossibili, da sradicare .

La ricerca ha dimostrato che quando i cittadini percepiscono che le istituzioni governative agiscono in modo equo e trasparente, sono più propensi a impegnarsi nella vita civica e a sostenere le politiche pubbliche. Le forze dell’ordine hanno maggiori probabilità di ottenere risultati migliori se considerano la tecnologia come uno strumento, piuttosto che un sostituto, della giustizia.

Autrice: Maria Lungu, è ricercatrice post-dottorato in Diritto e Pubblica Amministrazione, Università della Virginia.

Fonte: The Conversation


https://www.asterios.it/catalogo/analogico-e-digitale