Anche in questo caso, le linee guida sollevano interrogativi. Per esempio, la Commissione fa esplicita menzione al ricorso di sistemi di controllo come telecamere e sensori di movimento in centri migranti per spiegare che anche il fattore tempo conta nella valutazione di cosa è proibito. In questo caso, se la sorveglianza si protraesse per un certo periodo di tempo, per valutare la propensione degli individui alla fuga, allora si concretizzerebbe uno dei fattori di divieto. Uno, attenzione. “Il divieto – ricorda la Commissione – potrebbe applicarsi, qualora tutte le altre condizioni siano soddisfatte”. E quindi conseguenze negative slegate dal contesto in cui i dati sono stati generati o ingiustificate.
Il rapporto causa-effetto è necessario perché si attivi il divieto, lasciando quindi aperte zone grigie per il ricorso alla sorveglianza biometrica laddove o questa consequenzialità non si possa dimostrare o la conseguenza non sia considerata così grave. Torniamo al nostro centro migranti: quanti politici sarebbero pronti a giustificare quel tipo di controlli invasivi come necessari per questioni di sicurezza e conseguenze come l’espulsione o il rimpatrio come legittime per allontanare soggetti considerati a rischio? Se non sapete rispondervi, pensate a cosa ha fatto il governo italiano con il generale libico Osama Almasri Najeem, accusato dalla Corte penale internazionale di crimini di guerra e contro l’umanità.
Tra gli esempi di usi ammessi, la Commissione cita, a titolo di esempio, “i sistemi di intelligenza artificiale che utilizzano dati raccolti nei campi per rifugiati (per esempio, sul comportamento conforme alle regole) per prendere decisioni riguardanti il reinsediamento o l’occupazione” o la valutazione di rischio attraverso algoritmi di individui da parte della polizia, attraverso dati sul comportamento sociale raccolti da varie fonti, “a condizione che tali dati siano pertinenti per la prevenzione, individuazione, perseguimento e punizione di reati penali, e che l’eventuale trattamento sfavorevole sia giustificato e proporzionato conformemente al diritto penale e di polizia dell’Unione e degli Stati membri”. Sono definizioni larghe, che aprono a interpretazioni rischiose in contesti in cui la democrazia è fragile, quando ci sono di mezzo le minoranze e con il cruccio della sicurezza in cima all’agenda dell’Unione e dei suoi 27 Stati.
Il meme dei regolamenti
La sensazione che si ha, leggendo queste 140 pagine, è che salvo esempi eclatanti, la valutazione di un divieto imposto dall’AI Act avverrà caso per caso. Da un lato, questo potrebbe rassicurare chi vuole fare ricorso a queste tecnologie che, al di là delle grandi etichette, esistono margini di manovra. Dall’altro, si presta al fianco a interpretazioni discrezionali che potrebbero favorire, senza il dovuto controllo, politiche scivolose, le aziende più strutturate nel dialogo con le autorità o applicazioni borderline, vanificando la promessa di una difesa dei diritti dei cittadini.
Fonte : Wired