La precrimine è realtà ma per ora è vietata

  • Intelligenza artificiale

 

da«Un modello di rete neurale profonda per prevenire il crimine usando l'elaborazione delle immagini", è il titolo di un‘indagine condotta da professori e dottorandi dell'Università di Harrisburg, negli Stati Uniti, ricorda ‘il "Minority report" di Steven Spielberg del 2002, tratto dall’omonimo racconto di Philip Dick. Quel film raccontava di un dipartimento di polizia, la Precrimine, specializzato nell’arrestare criminali potenziali in base alla preconoscenza fornita dai sensitivi. Gli scienziati  di Harrisburg hanno sviluppato una tecnologia simile che utilizza un software di riconoscimento facciale in grado di prevedere se qualcuno probabilmente infrangerà la legge.

"Con una precisione dell'80% e senza bias razziali, il software è in grado di prevedere se qualcuno è un criminale basato esclusivamente su un'immagine del volto", afferma la ricerca.

La tecnologia sembrava promettente, tuttavia ha sollevato molte polemiche tra esperti di intelligenza artificiale e soprattutto tra gli esperti di diritto. Oltre 2000 esperti interdisciplinari di MIT, NYU, McGill, Harvard, Google, Microsoft e altri hanno firmato e promosso una lettera per bloccare la pubblicazione della ricerca, sul presupposto che la tecnologia menzionata è razzista, discriminatoria e potrebbe amplificare la discriminazione della polizia.

"Semplicemente non esiste alcun modo per sviluppare un sistema in grado di prevedere la" criminalità "che non sia distorto dal punto di vista razziale perché i dati sulla giustizia criminale sono intrinsecamente razzisti", ha spiegato Audrey Beard, uno dei firmatari lettera.

Dopo un accurato processo di revisione, l'articolo è stato per ora respinto dalla casa editrice accademica americano-tedesca Springer Nature. Anche l'Università di Harrisburg ha cancellato dal suo sito web il comunicato stampa che annunciava la ricerca in cui si afferma che "la facoltà sta aggiornando il documento per rispondere alle preoccupazioni".

La polizia predittiva - l'uso di tecniche matematiche e analitiche nelle forze dell'ordine per identificare potenziali attività criminali - tuttavia, non è nuova ed è stata già utilizzata in alcune regioni degli Stati Uniti, anche se con risultati negativi.

Come spiega a Metro Andrew Guthrie Ferguson, professore alla American University Washington College of Law e autore del libro "The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement": «Negli Stati Uniti esistono due principali forme di polizia predittiva. Le attività di polizia preventiva basata sul luogo utilizzano i dati sui crimini passati per prevedere le aree geografiche a rischio più elevato. Al suo apice, oltre 60 giurisdizioni hanno utlizzato questo sistema, che si è rivelato inconcludente, ma in alcune città è servito a impostare sistemi di di pattugliamento più efficiente. Il secondo tipo utilizza una serie di fattori di rischio per identificare le persone che potrebbero essere coinvolte in episodi di violenza futura. Per un certo periodo, le principali città come Los Angeles e Chicago hanno utilizzato previsioni basate sulla persona per identificare individui ad alto rischio per indirizzare il controllo sociale. Entrambe le città hanno poi riconosciuto che i sistemi predittivi basati sulla persona erano imperfetti nella progettazione e distorti dal punto di vista razziale e hanno chiuso la sperimentazione».

Poiché i sistemi predittivi non hanno funzionato, sono in aumento altre forme più tecnologiche di sorveglianza di grandi quantità di dati, come nuovi sistemi di videocamere, lettori di targhe automatizzati, Internet of Things e altri dispositivi intelligenti che offrono alla polizia nuovi modi di indagare sui crimini. Tuttavia, Ferguson ha avvertito che l'uso crescente di queste tecnologie porterà nuove preoccupazioni sulla privacy e sui pregiudizi razziali.

«L'idea che l’analisi della fotografia di un volto possa prevedere i crimini è una sciocchezza scientifica. Un tale sistema solleva così tante domande di progettazione algoritmica, etica e test che è preoccupante che il progetto sia stato persino perseguito. La tecnologia non verrà utilizzata negli Stati Uniti perché sarebbe incostituzionale arrestare qualcuno in base alle apparenze senza una probabile causa di un crimine. Nessuna legge può cambiare questa premessa fondamentale. La prossima era della sorveglianza dei big data porterà a nuove battaglie sulla privacy, i pregiudizi di razza e il ruolo della polizia nel miglioramento della sicurezza pubblica", ha concluso.

 

Il primo arresto sbagliato fatto con AI

Il primo arresto noto effettuato grazie al riconoscimento facciale di Intelligenza Artificiale è avvenuto all'inizio di quest'anno. La polizia di Detroit ha arrestato Robert Williams - un uomo afroamericano che vive in un sobborgo di Detroit - davanti a sua moglie e alle sue due figlie e lo ha tenuto rinchiuso per quasi 30 ore. Questo è successo quando il software di riconoscimento facciale della polizia di stato del Michigan ha detto alla polizia che Robert Williams era il ladro di orologi che stavano cercando. Il problema era che la tecnologia non è in grado di distinguere bene i neri. Ciò includeva Robert Williams, la cui unica cosa in comune con il sospettato era lo stesso colore della pelle.

Secondo l'American Civil Liberties Union (ACLU), dopo diverse ore la polizia ha ammesso di aver fatto un errore e rilasciato Robert. "Il computer deve aver sbagliato", ha detto uno dei poliziotti. «Come si spiega a due bambine che un computer ha sbagliato, ma la polizia gli ha dato retta comunque?» ha detto Robert.

DANIEL CASILLAS

 

 

Articoli Correlati
Intelligenza artificiale

Faggin: «Una fesseria la paura dei robot»

Il padre del microprocessore ora studia la coscienza e non teme l'Intelligenza artificiale
Intelligenza artificiale

C’è un Hal 9000 sulla IssSi ribella il robot con intelligenza artificiale

Lite con il suo astronauta per colpa di una canzone
Intelligenza artificiale

Intelligenza artificialefra vantaggi e pericoli

L’Ia garantisce efficenza e velocità, ma è esposta ad attacchi e manca di responsabilità legale