Intelligenza artificiale, per usarla cosa deve fare la pubblica amministrazione?

Non solo Ai Act, ma anche la Carta europea dei diritti fondamentali. Per i sistemi di intelligenza artificiale “ad alto rischio”, oltre agli obblighi disposti dall’AI Act, la pubblica amministrazione deve rispettare i principi della Carta dei diritti fondamentali dell’UE; considerare la Dichiarazione europea sui diritti e i principi della Digital Decade, assicurando l’allineamento delle applicazioni AI ai valori europei; e seguire gli orientamenti etici per un’intelligenza artificiale affidabile dell’AI HLEG1 (il gruppo di esperti di alto livello), promuovendo trasparenza, equità e responsabilità nell’uso di questa tecnologia.

AgID, l’Agenzia per l’Italia digitale, ha messo in consultazione le “Linee Guida sull’adozione, l’acquisto e lo sviluppo di sistemi di Intelligenza artificiale nella pubblica amministrazione”.
C’è tempo fino al 20 marzo prossimo per recapitare le proprie osservazioni, attraverso Forum Italia.

L’adozione di Linee guida rientra nel campo delle competenze dell’AgID. Nel settore della Intelligenza artificiale, l’adozione di linee guida è prevista dal Piano Triennale per l’Informatica nella Pubblica Amministrazione 2024-2026. Le linee guida sono accompagnate da nove allegati, che contengono strumenti di supporto e checklist per aiutare le amministrazioni a progettare la strategia di sviluppo e di implementazione di sistemi di AI tramite la valutazione di impatto, di rischio, gli indicatori di prestazione, uno schema di codice etico.

Le linee guida si occupano di tutto il ciclo di vita della AI negli uffici pubblici, suggerendo sia il modello di adozione (ben 13 step dalla definizione di una chiara strategia, alla identificazione dei casi d’uso prioritari fino a miglioramento continuo, passando dal piano operativo), sia la valutazione continua della conformità normativa, oltre poi alla governance etica, agli obblighi di comunicazione, alla formazione delle competenze. L’elenco è lungo. Scontata l’aderenza all’AI act, soprattutto nella classificazione dei sistemi secondo i livelli di rischio, vediamo quelle che possono considerarsi delle novità.

Automazione, predittività e personalizzazione: triplice missione

Innanzitutto rappresentano una particolarità i confini stabiliti per l’utilizzo di sistemi di AI negli uffici pubblici: le linee guida specificano infatti che essi devono servire ad automatizzare attività semplici e ripetitive di ricerca e analisi delle informazioni, “liberando tempo di lavoro per attività a maggior valore”; ad aumentare le capacità predittive, migliorando il processo decisionale basato sui dati; a supportare la personalizzazione dei servizi incentrata sull’utente, aumentando l’efficacia, l’efficienza e la tempestività dei servizi pubblici anche attraverso meccanismi di proattività; a promuovere l’innovazione dei servizi pubblici e dei processi amministrativi.

Compliance aumentata

Aumentano gli obblighi di compliance per i sistemi AI cosiddetti “ad alto rischio”, che dovranno rispettare non solo gli obblighi disposti dall’AI Act, ma anche i principi della Carta dei diritti fondamentali dell’UE, valutandone l’impatto sui diritti tutelati; dovranno, inoltre. “considerare” la Dichiarazione europea sui diritti e seguire gli Orientamenti etici per un’intelligenza artificiale affidabile dell’AI HLEG12.

Fonte : Wired