Il disegno di legge sull’intelligenza artificiale (IA), approvato dal Senato e ora in attesa del passaggio alla Camera, traccia le linee guida della strategia italiana su questa tecnologia. I principi fondamentali mirano a difendere i diritti, le libertà individuali e i valori democratici.
Le applicazioni pratiche riguarderanno settori chiave come difesa nazionale, sanità, ricerca scientifica, giustizia, lavoro e cybersicurezza. Dopo oltre un anno di discussioni, il provvedimento getta le basi per una legislazione nazionale sull’IA, non senza polemiche.
Le critiche si concentrano sull’uso dei dati biometrici da parte delle forze di polizia e sull’introduzione di sistemi IA nel settore giudiziario.
Chi coordinerà la strategia italiana sull’IA?
Il coordinamento delle politiche sull’intelligenza artificiale sarà affidato alla Presidenza del Consiglio dei Ministri. Sarà questo organo a stabilire le strategie, monitorare le iniziative pubbliche, gestire e coordinare i fondi destinati all’IA.
Verranno organizzati tavoli tecnici con le amministrazioni pubbliche e garantita la supervisione, in collaborazione con l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale.
Sicurezza dei dati: i server devono stare in Italia
Una disposizione importante riguarda i server che ospitano i sistemi informatici pubblici: dovranno essere installati sul territorio nazionale, per garantire la sicurezza dei dati.
L’unica eccezione è per l’ambito militare, dove si potranno utilizzare server situati all’estero. Intelligenza artificiale in sanità Il testo prevede la creazione di una piattaforma nazionale di IA per la sanità, gestita da Agenas (Agenzia nazionale per i servizi sanitari regionali). L’obiettivo è migliorare la gestione dei dati sanitari e supportare l’assistenza, in particolare quella territoriale.
L’uso dell’IA nella pubblica amministrazione
Viene stabilito che nella pubblica amministrazione l’intelligenza artificiale deve essere usata come strumento di supporto, non come sostituto delle decisioni umane.
La persona che prende la decisione resta l’unica responsabile delle azioni e dei provvedimenti, anche se è stata utilizzata l’IA. Inoltre, le amministrazioni devono prendere misure per garantire un uso responsabile dell’IA. Questo include adottare tecnologie appropriate, organizzare formazioni per il personale e sviluppare le competenze necessarie per utilizzarla correttamente.
Lavoro e intelligenza artificiale: un Osservatorio dedicato
Come previsto dalle prime bozze, per quanto riguarda il lavoro viene creato un Osservatorio al Ministero del Lavoro per monitorare l’uso dell’intelligenza artificiale.
Il disegno di legge stabilisce che l’IA deve essere utilizzata per migliorare le condizioni di lavoro, proteggere la salute e il benessere dei lavoratori, e aumentare la qualità e la produttività del lavoro, rispettando le leggi europee. L’Osservatorio ha il compito di definire una strategia per l’uso dell’IA nel lavoro, monitorare l’impatto che ha sul mercato del lavoro e identificare i settori più coinvolti. Inoltre, dovrà promuovere la formazione di lavoratori e datori di lavoro sull’IA.
Contenuti e diritto d’autore
Il ddl inoltre si occupa di diritto d’autore. Anche per le opere create con l’Ai. A condizione che siano il risultato del lavoro intellettuale dell’autore. Inoltre, è consentito estrarre dati e testo da opere o materiali online (se legalmente accessibili) per l’uso in modelli di IA, anche generativa. Nuove norme penali: aggravanti e reati legati all’AI Il disegno di legge introduce nuove norme in ambito penale:
- Aggravanti se il reato viene commesso usando sistemi di IA in modo insidioso o per ostacolare la difesa.
- Nei casi di reati contro i diritti politici dei cittadini, la pena va da 2 a 6 anni se l’inganno è realizzato tramite IA.
- Nuovo reato di diffusione illecita di contenuti manipolati con IA (ad esempio deepfake). Chi diffonde immagini, video o audio falsificati senza il consenso della persona interessata rischia da 1 a 5 anni di reclusione.
Il legislatore intende inoltre affidare al governo una delega per aggiornare l’intero sistema penale rispetto alle nuove sfide poste dall’IA. “In materia penale, da un lato, il Legislatore intende conferire delega al Governo con l’obiettivo di adeguare il sistema penale vigente alle novità connesse con l’IA, anche mediante l’introduzione di nuovi reati e il conseguente adeguamento della disciplina della responsabilità 231 degli enti; dall’altro lato, la Riforma intende altresì intervenire direttamente, con l’introduzione, all’art. 26, di circostanze aggravanti, nell’ipotesi in cui le fattispecie criminose vengano commesse a mezzo dell’IA, nonché tramite l’introduzione di un reato ad hoc: quello di illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, commenta Andrea Puccio, founding partner dello studio Puccio Penalisti Associati.
Il tema controverso del riconoscimento biometrico
Fin qui gli aspetti piuttosto pacifici del disegno di legge. Poi ci sono alcuni temi dibattuti. Il primo è il tema del riconoscimento biometrico. Un emendamento di alcuni senatori del Movimento 5 stelle è stato bocciato dal governo. Chiedeva trasparenza e accessibilità del funzionamento degli algoritmi utilizzati dal sistema Sari della Polizia i Stato.
L’emendamento chiedeva che con cadenza trimestrale siano pubblicati su sito del Garante i dati, e in formato aperto. Quali? Quelli relativo al funzionamento degli algoritmi, quello sulle ricerche effettuate col sistema Sari e il numero dei match di identificazione biometrica utilizzati sul territorio nazionale. L’opposizione lamenta che questa bocciatura sia una “occasione mancata per garantire il controllo democratico e trasparente sull’uso della biometria in Italia”.
No alla proposta di costituire un’unica autorità competente sull’AI
Bocciato anche l’emendamento dell’opposizione che proponeva di sostituire l’attuale assetto previsto dal disegno di legge, in cui il ruolo di autorità sull’intelligenza artificiale è affidato all’AgID (Agenzia per l’Italia Digitale) e all’ACN (Agenzia per la Cybersicurezza Nazionale).
L’emendamento chiedeva di istituire un’Autorità indipendente per l’IA, con competenze estese anche alle neurotecnologie. Secondo la proposta, questa nuova autorità avrebbe operato con piena indipendenza di giudizio e avrebbe avuto autonomia organizzativa, finanziaria e contabile.
IA nei Tribunali? Si, ma solo per attività di supporto
L’intelligenza artificiale potrà essere utilizzata anche negli uffici giudiziari, ma solo per sperimentazioni e attività di supporto.
Ogni decisione riguardante l’interpretazione della legge, la valutazione delle prove e le sentenze resterà esclusiva dei magistrati. Il governo dovrà inoltre stabilire regole chiare sull’uso dell’IA nelle indagini preliminari, garantendo il rispetto dei diritti di difesa, della privacy e dei principi di proporzionalità e trasparenza.
“L’accesso dei sistemi di AI alle ‘aule di tribunale’ al quale parrebbe riferirsi il disegno di legge subordinandolo alle specifiche autorizzazioni del ministero di Giustizia, può significare soltanto la messa a disposizione degli operatori di più efficienti sistemi di ricerca e di archivio il cui uso è rimesso ad un controllo umano significativo e responsabile”, commenta Elisabetta Berti Arnoaldi, partner dello studio Sena & Partners. “Ad oggi dunque, ancora una volta, IA unicamente come mezzo al servizio dell’uomo”.
Fonte : Repubblica