L’impiego dell’intelligenza artificiale predittiva dalla polizia è in ascesa: renderla responsabile nei confronti del pubblico potrebbe frenarne gli effetti dannosi
Di seguito alcune regole da seguire per non essere sorvegliati:
♠ Dimenticando spesso il proprio telefono a casa.
♣ Usando i mezzi pubblici di trasporto si evitano i lettori di targhe.
♥ Un abbigliamento diverso dal solito, dal serio al casual e viceversa, occhiali scuri e altri accorgimenti vi aiuta ad evitare di essere riconosciuti dalle milioni di telecamere messe in ogni angolo della strada.
♦ Dovete resistere alla pressione di utilizzare app “gratuite” come WhatsApp e Line poiché la raccolta, la vendita e l’uso illegale dei vostri dati è presumibilmente ciò che paga il servizio. Anzi è certo!
♠ Usate il contante dove e quando è possibile.
AD
⇐⇓⇒
La lettura di acro-polis.it, Quotidiano di idee, per la Libertà, la Pace e la Giustizia sociale e climatica è gratuita, ma la pubblicazione non è gratuita, ha dei costi. Se ti piace il contenuto:
Aiutaci a rimanere Paywall-free ♥ Contribuisci acquistando i volumi delle nostre collane di libri su carta, e delle edizioni di www.asterios.it
Il thriller fantascientifico del 2002 ” Minority Report ” descriveva un futuro distopico in cui un’unità di polizia specializzata aveva il compito di arrestare persone per crimini che non avevano ancora commesso. Diretto da Steven Spielberg e basato su un racconto di Philip K. Dick, il dramma ruotava attorno al “PreCrime”, un sistema creato da un trio di sensitivi, o “precog”, che prevedeva futuri omicidi, consentendo agli agenti di polizia di intervenire e impedire ai potenziali aggressori di mietere vittime.
Il film affronta questioni etiche complesse: come può qualcuno essere ritenuto colpevole di un crimine che non ha ancora commesso? E cosa succede quando il sistema sbaglia?
Sebbene non esista un “precognitore” onniveggente, i componenti chiave del futuro immaginati da “Minority Report” sono diventati realtà ancora più rapidamente di quanto i suoi creatori avessero immaginato. Per oltre un decennio, i dipartimenti di polizia di tutto il mondo hanno utilizzato sistemi basati sui dati volti a prevedere quando e dove potrebbero verificarsi crimini e chi potrebbe commetterli.
Lungi dall’essere un concetto astratto o futuristico, la polizia predittiva è una realtà. E gli analisti di mercato prevedono un boom per questa tecnologia.
Date le difficoltà nell’utilizzo efficace ed equo dell’apprendimento automatico predittivo, la polizia predittiva solleva significative preoccupazioni etiche . In assenza di soluzioni tecnologiche all’orizzonte, esiste un approccio per affrontare queste preoccupazioni: trattare l’uso della tecnologia da parte del governo come una questione di responsabilità democratica.
La polizia predittiva si basa sull’intelligenza artificiale e sull’analisi dei dati per anticipare potenziali attività criminali prima che si verifichino. Può comportare l’analisi di ampi set di dati tratti da denunce di reati, registri degli arresti e informazioni sociali o geografiche per identificare modelli e prevedere dove potrebbero verificarsi reati o chi potrebbe essere coinvolto.
Le forze dell’ordine utilizzano l’analisi dei dati per tracciare tendenze generali da decenni. Le potenti tecnologie di intelligenza artificiale odierne, tuttavia, elaborano enormi quantità di dati provenienti da attività di sorveglianza e denunce di reati per fornire analisi molto più dettagliate.
I dipartimenti di polizia utilizzano queste tecniche per determinare dove concentrare le proprie risorse. La previsione basata sul luogo si concentra sull’identificazione di luoghi ad alto rischio, noti anche come punti caldi, dove statisticamente è più probabile che si verifichino reati. La previsione basata sulla persona , al contrario, cerca di segnalare gli individui considerati ad alto rischio di commettere o diventare vittime di reati.
Questi tipi di sistemi sono stati oggetto di notevole preoccupazione pubblica. Nell’ambito di un cosiddetto programma di ” polizia guidata dall’intelligence ” nella contea di Pasco, in Florida, il dipartimento dello sceriffo ha compilato un elenco di persone considerate a rischio di commettere reati e ha poi inviato ripetutamente agenti presso le loro abitazioni. Oltre 1.000 residenti di Pasco, compresi minorenni, sono stati sottoposti a visite casuali da parte di agenti di polizia e sono stati citati per reati come la mancanza di numeri di cassetta postale e l’erba alta.
Le cause legali hanno costretto l’ufficio dello sceriffo della contea di Pasco, in Florida, a porre fine al suo problematico programma di polizia predittiva.
Quattro residenti hanno fatto causa alla contea nel 2021 e l’anno scorso hanno raggiunto un accordo in cui l’ufficio dello sceriffo ha ammesso di aver violato i diritti costituzionali dei residenti alla privacy e alla parità di trattamento ai sensi della legge. Da allora, il programma è stato interrotto.
Questo non è un problema che riguarda solo la Florida. Nel 2020, Chicago ha dismesso la sua “Strategic Subject List “, un sistema in cui la polizia utilizzava l’analisi dei dati per prevedere quali pregressi criminali avrebbero potuto commettere nuovi reati o diventare vittime di future sparatorie. Nel 2021, il Dipartimento di Polizia di Los Angeles ha interrotto l’utilizzo di PredPol , un software progettato per prevedere i punti caldi della criminalità, ma è stato criticato per i bassi tassi di accuratezza e per il rafforzamento di pregiudizi razziali e socioeconomici.
Innovazioni necessarie o esagerazioni pericolose?
Il fallimento di questi programmi di alto profilo evidenzia una tensione critica: sebbene le forze dell’ordine spesso sostengano l’uso di strumenti basati sull’intelligenza artificiale per la sicurezza pubblica, gruppi per i diritti civili e studiosi hanno sollevato preoccupazioni in merito a violazioni della privacy, problemi di responsabilità e mancanza di trasparenza. E nonostante questi abbandoni di alto profilo dalla polizia predittiva, molti dipartimenti di polizia più piccoli continuano a utilizzare questa tecnologia .
La maggior parte dei dipartimenti di polizia americani non dispone di politiche chiare sul processo decisionale algoritmico e fornisce poche o nessuna informazione su come i modelli predittivi che utilizzano vengono sviluppati, addestrati o monitorati per verificarne l’accuratezza o eventuali distorsioni. Un’analisi della Brookings Institution ha rilevato che in molte città le amministrazioni locali non disponevano di documentazione pubblica sul funzionamento dei software di polizia predittiva, sui dati utilizzati o sulle modalità di valutazione dei risultati.
La polizia predittiva può perpetuare i pregiudizi razziali.
Questa opacità è ciò che nel settore viene definito ” scatola nera “. Impedisce una supervisione indipendente e solleva seri interrogativi sulle strutture che circondano il processo decisionale basato sull’intelligenza artificiale. Se un cittadino viene segnalato come ad alto rischio da un algoritmo, quali sono le sue possibilità di ricorso? Chi vigila sull’equità di questi sistemi? Quali meccanismi di supervisione indipendenti sono disponibili?
Ma è dimostrato che strumenti basati sui dati, fondati sui valori democratici del giusto processo, della trasparenza e della responsabilità, potrebbero offrire un’alternativa più solida agli attuali sistemi di polizia predittiva. Cosa succederebbe se il pubblico potesse comprendere il funzionamento di questi algoritmi, su quali dati si basano e quali garanzie esistono per prevenire esiti discriminatori e l’uso improprio della tecnologia?
La città di San Jose, in California, ha avviato un processo volto ad aumentare la trasparenza e la responsabilità nell’uso dei sistemi di intelligenza artificiale. San Jose si attiene a una serie di principi di intelligenza artificiale che impongono che tutti gli strumenti di intelligenza artificiale utilizzati dall’amministrazione cittadina siano efficaci, trasparenti per il pubblico ed equi nei loro effetti sulla vita delle persone. I dipartimenti comunali sono inoltre tenuti a valutare i rischi dei sistemi di intelligenza artificiale prima di integrarli nelle proprie attività.
Se adottate correttamente, queste misure possono effettivamente aprire la scatola nera, riducendo drasticamente la possibilità che le aziende di intelligenza artificiale nascondano il proprio codice o i propri dati dietro meccanismi come la protezione dei segreti commerciali. Consentire il controllo pubblico dei dati di addestramento può rivelare problemi come pregiudizi razziali o economici, che possono essere mitigati ma sono estremamente difficili, se non impossibili, da sradicare .
La ricerca ha dimostrato che quando i cittadini percepiscono che le istituzioni governative agiscono in modo equo e trasparente, sono più propensi a impegnarsi nella vita civica e a sostenere le politiche pubbliche. Le forze dell’ordine hanno maggiori probabilità di ottenere risultati migliori se considerano la tecnologia come uno strumento, piuttosto che un sostituto, della giustizia.
Autrice: Maria Lungu, è ricercatrice post-dottorato in Diritto e Pubblica Amministrazione, Università della Virginia.
Questo sito installa cookie e altri strumenti di tracciamento:
• tecnici necessari per il funzionamento del sito, per l'utilizzo non serve il tuo consenso;
• profilazione, anche di terza parte, necessari per offrirti servizi in linea con i tuoi interessi, per l'utilizzo serve il tuo consenso.
Cliccando “Accetta tutto” acconsenti all'utilizzo di tutti i cookie. Cliccando “Preferenze” potrai configurare le tue scelte. Cliccando "Chiudi" verranno installati solo i cookie tecnici.
Per saperne di più consulta la nostra Informativa Cookie
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Durata
Descrizione
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.