AI Act: ecco tutti i sistemi di intelligenza artificiale vietati in Europa

Chatbot subliminali, credit scoring, polizia predittiva, sorveglianza in tempo reale, riconoscimento delle emozioni a scuola e sul lavoro. Dal 2 febbraio questi usi dell’intelligenza artificiale sono vietati in tutta Europa. È il primo effetto dell’AI Act, la nuova legge europea sull’intelligenza artificiale.

A inizio mese sono diventate applicabili le prime disposizioni del regolamento, tra cui il divieto di immettere sul mercato, mettere in servizio o usare sistemi di IA per la manipolazione, lo sfruttamento, il controllo sociale e la sorveglianza delle persone.

Di recente, la Commissione europea ha adottato delle linee guida per chiarire la portata di questi divieti e fornire esempi pratici sulla loro attuazione. Ecco tutto quello che occorre sapere.

Manipolazione e sfruttamento delle vulnerabilità
I primi due divieti riguardano i sistemi di IA che usano tecniche subliminali, manipolative o ingannevoli e che sfruttano le vulnerabilità delle persone. Si vuole evitare che gli algoritmi vengano adoperati per compromettere le scelte dei cittadini e provocare danni significativi.

Rientrano nel primo caso la diffusione di messaggi subliminali visivi, come i testi che lampeggiano in modo impercettibile durante un video, o le tecniche di manipolazione sensoriale che alterano l’umore delle persone. Sono vietati anche i chatbot che si spacciano per un parente grazie a una voce sintetica per commettere truffe.

Il secondo divieto include i giochi che incoraggiano i bambini a completare sfide pericolose in cambio di ricompense digitali, i sistemi di IA per truffare gli anziani e per influenzare le persone con disabilità ad acquistare prodotti medici. Sono proibiti anche gli algoritmi per indirizzare pubblicità di prodotti finanziari a persone in difficoltà economica.

Social scoring
L’Europa ha vietato i sistemi di punteggio sociale basati sull’IA che valutano o classificano i cittadini in base a comportamento sociale o caratteristiche personali. Il divieto riguarda i casi in cui da ciò derivi un trattamento pregiudizievole in contesti sociali che non sono collegati a quelli dove sono raccolti i dati o che sia sproporzionato rispetto alla gravità del comportamento sociale.

I governi non possono pertanto introdurre sistemi di IA in grado di monitorare e valutare i cittadini in diversi aspetti della vita, come le attività online e la puntualità nel pagamento delle bollette, prevedendo limitazioni nell’accesso ai servizi pubblici o tassi di interesse più elevati per chi ha un punteggio basso.

Il divieto si applica anche nel privato: questo significa che un’agenzia di credito non può usare l’IA per determinare l’affidabilità creditizia delle persone e decidere sulla possibilità di ottenere un prestito sulla base di caratteristiche personali non correlate.

Polizia predittiva
L’AI Act mette al bando anche i sistemi algoritmici che valutano o prevedono il rischio che una persona possa commettere un reato basandosi esclusivamente sulla profilazione o sulla valutazione di tratti e caratteristiche della personalità.

Non è quindi possibile per un’autorità applicare l’IA per prevedere il comportamento criminale per reati come il terrorismo basandosi solo su età, nazionalità, tipo di auto e stato civile delle persone.

Identificazione biometrica in tempo reale in pubblico
L’AI Act vieta inoltre i sistemi di identificazione biometrica in tempo reale in spazi accessibili al pubblico a fini di contrasto, fatte salve alcune limitate eccezioni che prevedono un’autorizzazione delle autorità.

La polizia non può quindi avvalersi di questi algoritmi per identificare un taccheggiatore e confrontare le sue immagini facciali con i database criminali. Queste tecnologie sono invece ammesse – alle condizioni previste dalla legge – per la ricerca di vittime di alcuni gravi delitti o di persone scomparse, la prevenzione di minacce all’incolumità pubblica o di attacchi terroristici e la localizzazione o l’identificazione di sospettati di certi reati.

Riconoscimento delle emozioni
Con l’AI Act in scuole e luoghi di lavoro non possono essere utilizzati sistemi di IA per dedurre le emozioni di una persona, salvo per motivi medici o di sicurezza. Rientrano nel divieto l’uso di webcam e sistemi di riconoscimento vocale nei call center per rilevare le emozioni dei dipendenti e l’impiego di algoritmi nelle scuole per riconoscere le emozioni durante i test di ammissione.

Scraping di immagini
È vietato anche commercializzare o usare sistemi di IA che creano o ampliano banche dati di riconoscimento facciale attraverso lo scraping non mirato di immagini facciali da internet o da

filmati di telecamere a circuito chiuso.

Categorizzazione biometrica
Non sono infine ammessi i sistemi di categorizzazione biometrica che classificano le persone in base ai loro dati biometrici per dedurne caratteristiche sensibili come razza, opinioni politiche e orientamento sessuale. Non sono pertanto ammessi algoritmi per dedurre l’etnia di una persona dalla sua voce o l’orientamento religioso da un tatuaggio.

Fonte : Repubblica