La tecnologia di riconoscimento facciale nella guerra in Ucraina ci porta i robot assassini?

Clearview AI sta offrendo la sua controversa tecnologia all’Ucraina per identificare i soldati nemici, mentre le macchine per uccidere autonome sono in aumento.

Fonte: OpenDemocracy

La tecnologia in grado di riconoscere i volti dei combattenti nemici è l’ultima cosa ad essere schierata nel teatro di guerra dell’Ucraina. Questo uso militare dell’intelligenza artificiale ha tutti i segni di un’ulteriore svolta distopica verso quello che è già un conflitto brutale.

La società statunitense Clearview AI ha offerto al governo ucraino l’uso gratuito della sua controversa tecnologia di riconoscimento facciale. Si è offerto di scoprire gli infiltrati, incluso il personale militare russo, combattere la disinformazione, identificare i morti e riunire i rifugiati alle loro famiglie.

Ad oggi, i resoconti dei media e le dichiarazioni di funzionari del governo ucraino hanno affermato che l’uso degli strumenti di Clearview si è limitato all’identificazione dei soldati russi morti al fine di informare le loro famiglie a titolo di cortesia . Secondo quanto riferito, anche l’esercito ucraino sta utilizzando Clearview per identificare le proprie vittime .

Questo contributo allo sforzo bellico ucraino dovrebbe anche offrire all’azienda un battesimo del fuoco per il suo prodotto più importante. L’implementazione di Battlefield offrirà all’azienda lo stress test definitivo e produrrà dati preziosi, trasformando istantaneamente Clearview AI in un appaltatore della difesa, potenzialmente importante, e lo strumento in tecnologia militare.

Se la tecnologia può essere utilizzata per identificare i soldati nemici vivi così come quelli morti, potrebbe anche essere incorporata in sistemi che utilizzano il processo decisionale automatizzato per dirigere la forza letale. Questa non è una possibilità remota. L’anno scorso, le Nazioni Unite hanno riferito che un drone autonomo aveva ucciso persone in Libia nel 2020 e ci sono notizie non confermate di armi autonome già utilizzate nel teatro ucraino.

La nostra preoccupazione è che la speranza che l’Ucraina esca vittoriosa da quella che è una sanguinosa guerra di aggressione possa offuscare la visione e il giudizio riguardo al pericoloso precedente stabilito dai test sul campo di battaglia e dal perfezionamento della tecnologia di riconoscimento facciale, che potrebbe nel prossimo futuro essere integrata in sistemi autonomi di macchine per uccidere.

Per essere chiari, questo uso esula dall’ambito dell’attuale supporto di Clearview all’esercito ucraino; e per quanto ne sappiamo Clearview non ha mai espresso alcuna intenzione che la sua tecnologia venga utilizzata in questo modo. Tuttavia, riteniamo che ci sia un vero motivo di preoccupazione quando si tratta dell’uso militare e civile delle tecnologie di riconoscimento facciale di proprietà privata.

Clearview insiste sul fatto che il suo strumento dovrebbe integrare e non sostituire il processo decisionale umano. Un buon sentimento ma falso di partenza.

La promessa del riconoscimento facciale nelle forze dell’ordine e sul campo di battaglia è aumentare la precisione, sollevando la proverbiale nebbia della guerra con un puntamento preciso automatizzato, migliorando l’efficienza della forza letale risparmiando la vita agli “innocenti”.

Ma questi sistemi portano i loro problemi. L’errore di riconoscimento è ovvio e rimane una seria preoccupazione, anche quando si identificano soldati morti o feriti. Altrettanto grave, tuttavia, è che sollevare una nebbia ne faccia entrare un’altra. Temiamo che, per motivi di efficienza, è probabile che le decisioni sul campo di battaglia con conseguenze letali siano sempre più “scatola nera”, presa da una macchina il cui funzionamento e le cui decisioni sono opachi anche al suo operatore. Se i sistemi d’arma autonomi incorporassero tecnologie e database di proprietà privata, queste decisioni sarebbero inevitabilmente prese, in parte, da algoritmi di proprietà dell’azienda.

Clearview insiste giustamente sul fatto che il suo strumento dovrebbe integrare e non sostituire il processo decisionale umano. Il CEO dell’azienda ha anche affermato in una dichiarazione condivisa con openDemocracy che tutti coloro che hanno accesso alla sua tecnologia “vengono formati su come utilizzarla in modo sicuro e responsabile”. Un buon sentimento ma falso di partenza. Prudenza e salvaguardie come questa sono destinate ad essere rapidamente abbandonate nel fervore della battaglia.

I sistemi di Clearview sono già utilizzati dalla polizia e dalle operazioni di sicurezza privata, ad esempio sono comuni nei dipartimenti di polizia degli Stati Uniti. La critica a tale uso si è in gran parte concentrata sul pregiudizio e sulla possibile identificazione errata degli obiettivi, nonché sull’eccessivo affidamento all’algoritmo per effettuare le identificazioni, ma il rischio corre anche dall’altra parte.