Dall’intelligenza artificiale “regolata” l’Europa deve (e vuole) passare a quella “applicata”

Si fa presto a dire AI Act. Mentre all’orizzonte si delinea la prima, grande scadenza del regolamento europeo sull’intelligenza artificiale, quella di febbraio 2025 sugli usi vietati, si mette in moto la macchina che dovrà sovrintendere l’applicazione della prima legge al mondo che tratta in maniera comprensiva di sistemi di AI, algoritmi e affini, organizzandola secondo classi di rischio.

La prima tappa del percorso dell’AI Act è tra sei mesi. Entreranno in vigore le proibizioni d’uso. A tutte le applicazioni che rappresentano un rischio inaccettabile per i 27 Stati dell’Unione si sbatte la porta in faccia. L’elenco è nero su bianco: tecnologie per manipolare i comportamenti delle persone, la sorveglianza biometrica, raccolta massiccia di foto di volti da internet, riconoscimento delle emozioni sul posto di lavoro o a scuola, sistemi di punteggio sociale o polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.

Deroghe e chiarimenti

La porta dei divieti, in realtà, lascia aperti alcuni spiragli. Innanzitutto i tre casi in cui si può ammettere il riconoscimento facciale in tempo reale. Ossia minaccia di terrorismo prevedibile o manifesta; ricerca di vittime (per esempio, una persona sequestrata); identificazione dei sospettati di alcuni “seri crimini (un elenco di 16 reati, dallo spaccio di droga all’omicidio). Poi è ammesso usare l’identificazione biometrica quando lo scopo “è confermare che una determinata persona fisica sia la persona che dice di essere”. E gli Stati possono comunque decidere di autorizzare in tutto o in parte l’uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto”.

Per interpretare l’AI Act, spiega a Wired Roberto Viola, a capo della direzione generale Connect della Commissione europea, preposta alla gestione delle politiche su tecnologia e innovazione, Bruxelles rilascerà delle linee guida” di chiarimento. “Ci stiamo già lavorando”, dice Viola a margine della cerimonia di inaugurazione del master in Internet law dell’Università Bocconi di Milano. Sarà un “documento amministrativo, non vincolante, che dia un po’ una spiegazione – precisa il dirigente -. Facciamo un esempio e prendiamo il divieto di identificare emozioni sul posto di lavoro. C’è una logica di protezione del lavoratore. Ma se il lavoratore, per esempio, lavora a una macchina che richiede grande attenzione, allora il riconoscimento del livello di attenzione o della stanchezza è una forma di attenzione rispetto all’incolumità del lavoratore”.

Lo stesso, prosegue Viola, “vale con il divieto di analizzare le emozioni degli studenti. Siamo tutti d’accordo che non lo vogliamo. Ci hanno scritto associazioni di psicologi e pedagoghi che avevano timore che questo divieto impedisse l’uso di nuove tecnologie per l’inserimento a scuola di bambini autistici. Ovviamente no”. Viola anticipa che ci sarà una consultazione pubblica, a cui aziende e organizzazioni non governative potranno dare i loro contributi, e poi verrà prodotta una comunicazione generale.

I compiti dell’AI Office

Al rientro dalle vacanze si accumulano le incombenze sulle scrivanie dell’AI Office, l’ampliata divisione dedicata all’intelligenza artificiale in seno alla Dg Connect. Oggi sono 90 gli impiegati, che nei prossimi mesi dovranno raggiungere quota 160-70 per occuparsi, tra le altre cose, del monitoraggio e dello sviluppo dell’AI Act.

Fonte : Wired