Chatbot subliminali, credit scoring, polizia predittiva, sorveglianza in tempo reale, riconoscimento delle emozioni a scuola e sul lavoro. Dal 2 febbraio questi usi dell’intelligenza artificiale sono vietati in tutta Europa. È il primo effetto dell’AI Act, la nuova legge europea sull’intelligenza artificiale.
A inizio mese sono diventate applicabili le prime disposizioni del regolamento, tra cui il divieto di immettere sul mercato, mettere in servizio o usare sistemi di IA per la manipolazione, lo sfruttamento, il controllo sociale e la sorveglianza delle persone.
Di recente, la Commissione europea ha adottato delle linee guida per chiarire la portata di questi divieti e fornire esempi pratici sulla loro attuazione. Ecco tutto quello che occorre sapere.
AI Act, le norme sull’intelligenza artificiale che legge le emozioni: “Vietata a scuola e al lavoro”
Manipolazione e sfruttamento delle vulnerabilità
I primi due divieti riguardano i sistemi di IA che usano tecniche subliminali, manipolative o ingannevoli e che sfruttano le vulnerabilità delle persone. Si vuole evitare che gli algoritmi vengano adoperati per compromettere le scelte dei cittadini e provocare danni significativi.
Rientrano nel primo caso la diffusione di messaggi subliminali visivi, come i testi che lampeggiano in modo impercettibile durante un video, o le tecniche di manipolazione sensoriale che alterano l’umore delle persone. Sono vietati anche i chatbot che si spacciano per un parente grazie a una voce sintetica per commettere truffe.
Il secondo divieto include i giochi che incoraggiano i bambini a completare sfide pericolose in cambio di ricompense digitali, i sistemi di IA per truffare gli anziani e per influenzare le persone con disabilità ad acquistare prodotti medici. Sono proibiti anche gli algoritmi per indirizzare pubblicità di prodotti finanziari a persone in difficoltà economica.
Social scoring
L’Europa ha vietato i sistemi di punteggio sociale basati sull’IA che valutano o classificano i cittadini in base a comportamento sociale o caratteristiche personali. Il divieto riguarda i casi in cui da ciò derivi un trattamento pregiudizievole in contesti sociali che non sono collegati a quelli dove sono raccolti i dati o che sia sproporzionato rispetto alla gravità del comportamento sociale.
I governi non possono pertanto introdurre sistemi di IA in grado di monitorare e valutare i cittadini in diversi aspetti della vita, come le attività online e la puntualità nel pagamento delle bollette, prevedendo limitazioni nell’accesso ai servizi pubblici o tassi di interesse più elevati per chi ha un punteggio basso.
Il divieto si applica anche nel privato: questo significa che un’agenzia di credito non può usare l’IA per determinare l’affidabilità creditizia delle persone e decidere sulla possibilità di ottenere un prestito sulla base di caratteristiche personali non correlate.
Polizia predittiva
L’AI Act mette al bando anche i sistemi algoritmici che valutano o prevedono il rischio che una persona possa commettere un reato basandosi esclusivamente sulla profilazione o sulla valutazione di tratti e caratteristiche della personalità.
Non è quindi possibile per un’autorità applicare l’IA per prevedere il comportamento criminale per reati come il terrorismo basandosi solo su età, nazionalità, tipo di auto e stato civile delle persone.
Identificazione biometrica in tempo reale in pubblico
L’AI Act vieta inoltre i sistemi di identificazione biometrica in tempo reale in spazi accessibili al pubblico a fini di contrasto, fatte salve alcune limitate eccezioni che prevedono un’autorizzazione delle autorità.
La polizia non può quindi avvalersi di questi algoritmi per identificare un taccheggiatore e confrontare le sue immagini facciali con i database criminali. Queste tecnologie sono invece ammesse – alle condizioni previste dalla legge – per la ricerca di vittime di alcuni gravi delitti o di persone scomparse, la prevenzione di minacce all’incolumità pubblica o di attacchi terroristici e la localizzazione o l’identificazione di sospettati di certi reati.
Riconoscimento delle emozioni
Con l’AI Act in scuole e luoghi di lavoro non possono essere utilizzati sistemi di IA per dedurre le emozioni di una persona, salvo per motivi medici o di sicurezza. Rientrano nel divieto l’uso di webcam e sistemi di riconoscimento vocale nei call center per rilevare le emozioni dei dipendenti e l’impiego di algoritmi nelle scuole per riconoscere le emozioni durante i test di ammissione.
Scraping di immagini
È vietato anche commercializzare o usare sistemi di IA che creano o ampliano banche dati di riconoscimento facciale attraverso lo scraping non mirato di immagini facciali da internet o da
filmati di telecamere a circuito chiuso.
Categorizzazione biometrica
Non sono infine ammessi i sistemi di categorizzazione biometrica che classificano le persone in base ai loro dati biometrici per dedurne caratteristiche sensibili come razza, opinioni politiche e orientamento sessuale. Non sono pertanto ammessi algoritmi per dedurre l’etnia di una persona dalla sua voce o l’orientamento religioso da un tatuaggio.
Fonte : Repubblica