Intelligenza artificiale, perché il patto europeo rischia di rimanere un manifesto di buone intenzioni

Sono quasi mille, secondo i dati comunicati dalla Commissione nell’ambito di questo incontri, le realtà che hanno dimostrato un interesse per l’AI Pact, ma non tutte diventeranno automaticamente firmatarie. Perché gli impegni del patto si applicano solo agli sviluppatori di tecnologie ad alto rischio, che devono rispettare alcune delle regole dell’AI Act. L’accesso ampio è dovuto al fatto che la Commissione vuole ascoltare altre voci per migliorare il documento e il sostegno alle imprese. Tuttavia al seminario online, durante il quale è stata presentata la bozza del patto, erano presenti 200 partecipanti circa dei mille interessati.

Gli impegni

Il patto si compone di tre impegni chiave: avere una strategia di gestione dell’AI che operi con l’obiettivo di adeguarsi all’AI Act; mappare i sistemi di intelligenza artificiale ad alto rischio sviluppati e di comunicarlo; investire nella formazione del proprio personale e di chi deve adottare i propri modelli.

A questi si aggiungono altri quindici impegni opzionali che vanno più nel dettaglio. L’elenco è puntato e gli interessati possono segnare solo quelli a cui vogliono adempiere. Come, per esempio, istituire sistemi e processi per identificare i potenziali rischi che i propri modelli possono comportare sul fronte della sicurezza, della salute e dei diritti fondamentali, garantire sempre misure di controllo da parte di un operatore umano e introdurre strumenti di mitigazione. O assicurarsi che l’addestramento sia fatto con dati di alta qualità e dataset affidabili. O ancora, fornire strumenti per identificare i contenuti generati artificialmente, informare gli utilizzatori dei limiti delle proprie tecnologie, così come del fatto che stiano interagendo con un sistema di AI.

Sono tutti principi di massima che qualsiasi sviluppatore di AI, almeno a parole, direbbe di sposare. In fin dei conti, l’accordo è un manifesto di buone intenzioni che ogni azienda potrà usare come vuole. Dalla Commissione precisano che il patto non impegna a pubblicare algoritmi o altri segreti industriali, ma a condividere le informazioni che le aziende si sentono di divulgare, senza interferire con la loro attività. E che la mappa dei sistemi di AI può contenere solo i dati che ogni società vuole comunicare, senza essere uno screening troppo approfondito.

Chi firma l’AI Pact si impegna a mettere in pratica le promesse entro dodici mesi e a produrre un rapporto che indichi i risultati raggiunti. Di fatto, però, gli impegni prendono forma man mano che entrano in vigore le regole dell’AI Act, che, essendo la legge, è la sola cosa da rispettare. Per l’AI Office, l’utilità dell’AI Pact consiste nella possibilità di conoscere meglio i processi interni delle aziende, spingerle alla trasparenza e trasmettere i principi delle regole comunitarie. Ma l’approccio annacquato rischia di trasformarsi in un palcoscenico per le società tech, per raccontare con parole accomodanti il proprio lavoro. Almeno finché l’AI Act non farà scattare i vincoli veri. Ma questa è un’altra storia.

Fonte : Wired