Polizia predittiva, perché la più avanzata startup italiana è sull’orlo del baratro

C’è stata una fase in cui la polizia predittivaalgoritmi basati su intelligenza artificiale che promettono di individuare in anticipo chi commetterà un crimine o dove e quando si verificherà un reato – sembrava destinata al successo. Tra il 2016 e il 2017, nel pieno della prima ondata di deep learning, iniziano a moltiplicarsi software che portano nomi come PredPol, HunchLab, Risk Terrain Modelling e altri ancora, rapidamente adottati dalle forze dell’ordine di Chicago, Los Angeles, Atlanta, Seattle e altre città principalmente statunitensi.

Oltre alle varie startup della Silicon Valley, inizia però a farsi strada anche l’italiana KeyCrime. Fondata dall’ex poliziotto Mario Venturi, Keycrime è in fase di sperimentazione alla Questura di Milano già dal 2008, ottenendo risultati importanti (stando ai dati diffusi dalla società e analizzati da uno studio della University of Essex) e una buona copertura mediatica, nazionale e anche internazionale.

Con il passare del tempo, il settore della polizia predittiva nel suo complesso diventa però oggetto di critiche feroci: oltre ad avere un’accuratezza spesso inferiore rispetto alle promesse, e di aver in più occasioni preso di mira persone innocenti, questi software sono accusati di instaurare un circolo vizioso: le zone segnalate dall’algoritmo (i cosiddetti hotspot) vengono infatti sottoposte a maggior pattugliamento, causando così un maggior numero di arresti che fa sì che l’algoritmo consideri queste zone ancor più pericolose e così via.

“Tutto il settore della polizia predittiva ha subito forti attacchi: sono stati sollevati dubbi sulla sua reale utilità e sul rischio che alcuni approcci potessero generare discriminazione – spiega a Wired Mario Venturi -. Ed è vero: ci sono studi mondiali che danno evidenza di tutto ciò, ma è proprio per questa ragione che noi non abbiamo mai lavorato né sui soggetti, né sugli hotspot, ma sulle serie storiche dei crimini”.

Cosa fa KeyCrime

In poche parole, KeyCrime – che non è propriamente un software di deep learning, ma un “sistema esperto” – è un programma all’interno del quale vengono inseriti i dati anonimizzati ottenuti dalle testimonianze relative a un reato (orario, luogo, comportamento dei criminali, armi utilizzate), con l’obiettivo di mettere in correlazione diversi crimini e determinare quali sono stati compiuti dalla stessa persona o dallo stesso gruppo di persone. Tutto ciò permette di stimare quali serie criminali potrebbero essere state effettuate dagli stessi soggetti e dove potrebbero svolgersi le prossime azioni.

Fonte : Wired