AI Act, approvato dal Parlamento europeo

Il Parlamento europeo ha approvato l’AI Act, cioè il regolamento europeo sull’intelligenza artificiale. Il testo ha finalmente completato tutti i passaggi del lungo iter legislativo europeo, facendo scattare il conto alla rovescia per tutte le aziende del settore che dovranno adeguarsi alle nuove norme dell’Unione. L’obiettivo dell’AI Act è mettere al centro dello sviluppo di queste nuove tecnologie il rispetto e la tutela dei diritti fondamentali e della dignità delle persone. Tuttavia, sono sorte molte critiche per il via libera dato dal testo alla sorveglianza biometrica di massa nei luoghi pubblici da parte delle forze dell’ordine, anche in contesti illiberali.

Con il voto di oggi, 13 marzo 2024, l’Unione europea e i suoi stati membri sono diventati i primi al mondo a dotarsi di una legge in materia di intelligenza artificiale, segnando un precedente. Il testo però, non verrà promulgato prima di maggio 2024, dato che dovrà essere tradotto in 24 lingue e le necessarie correzioni per adattarlo alle normative nazionali richiederanno un’ulteriore voto del Parlamento, previsto per metà aprile, e il via libera del Consiglio dell’Unione europea. Le nuove leggi si applicheranno a tutti i soggetti, pubblici e privati, all’interno e all’esterno dell’Unione, che producono strumenti a intelligenza artificiale destinati al mercato europeo o il cui uso riguardi persone situate nell’Unione.

Il regolamento riguarda sia i fornitori che gli utilizzatori dei sistemi a intelligenza artificiale e gli acquirenti dovranno assicurarsi che il prodotto comprato abbia già passato la procedura di valutazione e conformità prevista, sia provvisto di un marchi di conformità europeo e accompagnato dalla documentazione e dalle istruzioni richieste. Le regole non si applicano solo nel caso di attività di ricerca e sviluppo che precedono la vendita, ai sistemi destinati esclusivamente a scopi militari, di difesa o sicurezza nazionale e ai modelli gratuiti e open-source, che non siano modelli di intelligenza artificiale con rischi sistemici.

Il sistema a rischi

Parlando di rischi è ormai nota l’architettura su cui si basa l’AI Act, che divide i sistemi di intelligenza artificiale sulla base di quattro categorie di rischio: minimo, limitato, alto e inaccettabile. Maggiore è il rischio, maggiori sono le responsabilità e i limiti per chi sviluppa o usa questi sistemi, fino ad arrivare ai modelli troppo pericolosi per essere autorizzati. Tra gli impieghi vietati si trovano le tecnologie subliminali per manipolare i comportamenti delle persone, la categorizzazione biometrica che fa riferimento a dai sensibili, la raccolta massiccia e illimitata di foto di volti da internet, il riconoscimento delle emozioni sul posto di lavoro o a scuola, i sistemi di punteggio sociale o social scoring e la polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.

I tempi

Le regole dell’AI Act entreranno in vigore a scaglioni. Entro i prossimi sei mesi partiranno i divieti e i soggetti pubblici e privati dovranno in fretta compiere valutazioni sull’entità dei rischi posti dai sistemi che stanno usando. Fra un anno sarà il turno delle norme sui modelli fondativi, cioè le intelligenze artificiali generative, che dovranno rispettare alti standard di trasparenza, sicurezza informatica e condivisione della documentazione tecnica. Queste regole si applicheranno prima di portare i prodotti sul mercato per le AI ad alto impatto, cioè le più potenti come GPT4 di OpenAI, mentre per i modelli più semplici le regole scatteranno al momento della commercializzazione. Infine, fra due anni, l’AI Act entrerà in vigore per intero, facendo scattare anche le sanzioni per chi non lo rispetta. Le sanzioni partono dall’1,5% del fatturato globale, pari a 7,5 milioni di euro, fino al 7%, pari a 35 milioni di euro.

Il commento

Aindo, startup nata dalla Scuola internazionale superiore di studi avanzati di Trieste che ha sviluppato una tecnologia di generazione dei dati sintetici, ha accolto “con soddisfazione” le novità introdotte dall’Ai Act, in particolare per il riconoscimento del dato sintetico come tecnologia a supporto della tutela della privacy. I dati sintetici vengono prodotti artificialmente e sono privi di informazioni personali, ma riproducono fedelmente le caratteristiche e i comportamenti di quelli reali.

Pertanto, l’Ai act li ha identificati come dati non personali in grado di contribuire a uno sviluppo dell’Ai in linea con i principi di tutela della privacy e li ha inseriti nella sezione che disciplina l’uso dei dati per l’addestramento, la convalida e la prova di sistemi di Ai ad alto rischio, sia nella sezione che disciplina l’uso dei dati per lo sviluppo di sistemi innovativi di IA prima della loro immissione sul mercato, nell’ambito del cosiddetto spazio di sperimentazione normativa.

Fonte : Wired