Sembra incredibile eppure ogni servizio o dispositivo, dotato di intelligenza artificiale ad alto rischio, è oggi privo di una specifica certificazione europea. E per rischio si intendono tutti gli ambiti dove ci possono essere implicazioni per la salute umana, o comunque per i diritti dell’individuo. In pratica il Comitato europeo di normazione (Cen) non ha ancora pubblicato le norme di riferimento per l’AI, e oggi l’unica via di uscita è quella di rifarsi ai generici standard internazionali dell’Iso. La speranza, ovviamente, è che venga rispettata la scadenza imposta da Bruxelles sull’AI: i regolamenti dovranno essere pronti entro agosto 2026.
Non è un tema da sottovalutare perché l’alto rischio si manifesta – per esempio – in un’apparecchiatura medicale come la Tac, i cui ultimi modelli hanno dimostrato di essere in grado di proporre diagnosi grazie all’AI. Ma vale anche per i sistemi intelligenti che gestiscono reti idriche, i robot autonomi, gli algoritmi che condizionano l’erogazione di mutui e polizze assicurative.
L’AI nel perimetro della sicurezza dei prodotti
Quanto l’AI riguarda la sicurezza dei prodotti deve passare al vaglio degli esperti che assicurano la conformità alle normative. Da ricordare, peraltro, che l’intelligenza artificiale non sfiora solo gli ambiti della sicurezza ma anche la data protection, la trasparenza e l’etica. In tal senso l’Unione europea ha stabilito un processo specifico all’interno dell’AI Act e almeno su questo fronte non incide più di tanto l’attuale stallo del ddl italiano sull’intelligenza artificiale, arenato in Senato da diversi mesi.
Il tema di fondo è che i prodotti con intelligenza artificiale ad alto rischio richiederanno un sistema simile alla marcatura CE, e quindi un’attestazione della conformità, che può essere assicurata solo da un organismo notificato, accreditato dall’ente unico di accreditamento nazionale. In Italia quest’ultimo si chiama Accredia e di fatto è il certificatore delle realtà che certificano. Il suo compito è attestare la competenza dei laboratori e degli organismi che verificano la conformità di prodotti, servizi e professionisti agli standard di riferimento, facilitandone la circolazione, anche a livello internazionale. Vale anche per l’intelligenza artificiale.
“L’AI Act ha posto un perimetro, ma che cosa noi faremo all’interno è ancora da decidere. Un po’ come se fosse stato deciso un principio in attesa di stabilire le regole attuative. Le norme tecniche, in pratica, stabiliranno in che modo ci si debba adeguare ai vari requisiti dell’AI Act, specificando processi e metodologie che le organizzazioni dovranno implementare per rendere i loro sistemi di AI sicuri”, spiega Piercosma Bisconti, ricercatore del Cini, il Consorzio Interuniversitario nazionale per l’informatica. Praticamente non sono ancora stati stabiliti i requisiti tecnici, volti a minimizzare il rischio, tra le quali misure di cybersicurezza, qualità del data set, sorveglianza umana.
Vietate le pratiche a rischio con l’AI Act
“Dal 2 febbraio in Europa sono vietati tutti i sistemi con livello di rischio inaccettabile, ovvero quelli che colpiscono i diritti fondamentali delle persone come il social scoring che in Cina attua una valutazione dei cittadini sulla base di comportamenti per concedere o meno un visto” spiega a Wired Angelo Del Giudice, del dipartimento certificazione e ispezioni di Accredia. Del Giudice precisa come le norme continentali pongano un argine in grado di tenere i cittadini al riparo dagli eccessi asiatici. “Da noi non c’è nulla di simile. E neanche potrà esserci in futuro” sottolinea.
Fonte : Wired