Da mesi, ormai, seguiamo le vicende che riguardano i più recenti sviluppi dell’intelligenza artificiale, quella generativa, e dei foundation model. C’è chi addirittura se la vive come una soap opera, soprattutto rispetto ai recenti cambiamenti ai vertici di OpenAI che sempre più mi ricordano alcuni episodi della serie tv Succession. A un certo punto, ci convinciamo pure noi che sia tutto un gioco di potere e marketing, una storia che si ripete all’infinito. Questo è il gossip, poi c’è la realtà.
A marzo, poco dopo l’uscita di GPT-3, un gruppo di ricercatori e imprenditori pubblicavano una lettera aperta per chiedere ai governi una pausa di sei mesi allo sviluppo di “giganteschi esperimenti di intelligenza artificiale”. Scrivevano di essere preoccupati per il futuro degli esseri umani perché le potenzialità di uno strumento così grande, rivoluzionario, intelligente e che ci avrebbe presto superati andavano prima capite meglio. Da quella lettera sono successe diverse cose. Abbiamo capito e provato a far capire che si tratta di una bolla, gigantesca, fatta di competizione sul mercato (che ha portato alla nascita di diverse società alternative, fondate dai firmatari di quella lettera, nei mesi successivi, o agli stessi cambi di poltrona in OpenAI di questi giorni) e teorie contraddittorie (tra le altre il “doomerism” e il “long-terminism”).
Abbiamo provato a bilanciare questa dannosa fantascienza con una divulgazione sui rischi reali dell’intelligenza artificiale, quelli quotidiani e molto impattanti sulle vite delle persone, e che esistono da ben prima dell’IA generativa.
Abbiamo chiesto all’Europa, che per fortuna stava già lavorando per normare questo terreno, di stabilire regole chiare, in corsa, sui modelli di fondazione. Un’impresa difficilissima, ma l’unico modo per garantire che rispettino il precario equilibrio delle nostre società e allo stesso tempo che si sviluppi un mercato sano su queste tecnologie. Non crediamo nell’auto-regolamentazione da parte delle aziende, e pensiamo che per la tecnologia in particolare non abbia mai funzionato.
In realtà anche gli imprenditori statunitensi, come lo stesso Sam Altman, si sono appellati in diversi momenti all’Europa pregandola di regolamentarli: era l’unico modo per fermare la catastrofe impellente. Una gigantesca contraddizione per un mercato che desiderava espandersi a dismisura mentre urlava “vi prego, regolamentateci, abbiamo un mezzo che distruggerà l’umanità!” (non l’ultimo, Q*, quello prima, che comunque pareva dover distruggere la civiltà a detta loro). Condividevamo apparentemente la stessa richiesta ma con motivazioni e modalità profondamente diverse: nessuna catastrofe, semplicemente la necessità di stabilire requisiti per una tecnologia incerta e da governare con cura. E soprattutto, l’unico interesse nel richiedere una forte regolamentazione dei modelli generativi da parte delle stesse aziende che li sviluppavano era quello di rendere impossibile al mondo open-source lo sviluppo degli stessi modelli.
L’Europa ha accolto l’invito, e ha proposto delle integrazioni al testo in bozza del Regolamento sull’Intelligenza Artificiale (AI Act), con specifiche regole per i fornitori di foundation models, tra cui l’obbligo di effettuare audit indipendenti, test di sicurezza e di cybersecurity, misure di governance dei dati, valutazioni dei rischi e sforzi per la loro riduzione.
Pensiamo ad alcuni casi d’uso: modelli generativi usati per creare immagini che possono poi essere usate per diffondere (dis)informazione, modelli usati per creare testi per le scuole o per generare linguaggi d’odio. A fine ottobre, sembrava esserci un consenso tra Commissione, Parlamento e la presidenza spagnola del Consiglio sul tipo di regole da introdurre per i modelli di fondazione con un maggiore impatto sulla società.
L’AI Act, che dispone diverse regole per le tecnologie in base al loro rischio, è attualmente nell’ultima fase del processo legislativo, con le tre principali istituzioni dell’UE riunite nei cosiddetti triloghi per definire le disposizioni finali della legge. Una fase complicata soprattutto dai diversi interessi nazionali rappresentati dal Consiglio. E infatti, è di questi giorni la notizia che alcuni Paesi stanno facendo marcia indietro rimangiandosi il consenso già trovato sulle regole da dare all’IA generativa, con l’intenzione di bloccare i negoziati finché non si sarà trovato un nuovo accordo verso una completa de-regolamentazione. Tra questi c’è l’Italia.
Durante una riunione di un gruppo di lavoro tecnico del Consiglio dei ministri dell’UE, i rappresentanti di Francia, Germania e Italia si sono opposti a qualsiasi tipo di regolamentazione dei foundation models. Come spiega Connor Dunlop, EU Policy Lead dell’Ada Lovelace Institute di Londra su Euractiv, a guidare questa nuova posizione sono gli sforzi lobbysti di una start-up francese, Mistral – appoggiata dall’ex segretario di Stato francese per il digitale Cedric O, e l’azienda leader del settore IA tedesco, Aleph Alpha.
Gli interessi dell’Italia non sono chiari e trasparenti come gli altri, non stiamo apparentemente proteggendo nessuna impresa made in Italy. E allora perché?
Da mesi il nostro governo, e la Presidente stessa, sembra esprimersi sull’intelligenza artificiale come un tema cruciale. Vengono nominate ben due Commissioni, quella presieduta da Giuliano Amato, e quella invece nominata dal Sottosegretario all’Innovazione Alessio Butti. Entrambe vedono la partecipazione di esperti (e qualche esperta) incaricati rispettivamente di fornire pareri e indirizzi riguardo al rapporto tra algoritmi, media e informazione e i secondi, voluti da Butti, di far ripartire la strategia nazionale sull’IA, ormai dimenticata.
Nonostante questo apparente impegno, confermato durante le conferenze stampa dedicate al G7, l’Italia continua a non adottare una posizione pubblica rispetto alle decisioni politiche sulla tecnologia. Siamo tutti aggiornati su cosa accade alle aziende nella Silicon Valley e non sappiamo che il nostro Paese sta spingendo per affidare a un’autorità governativa (e non indipendente) il controllo sull’intelligenza artificiale. E ora si schiera, in sede europea, al fianco di chi chiede di togliere ogni responsabilità alle aziende che forniscono modelli generativi. La regolamentazione per la tecnologia dei modelli di base è fondamentale perché richiedono obblighi diversi da quelli già previsti dall’AI Act, perché la norma era stata pensata per modelli diversi in ambienti specifici, non così scalabili, sistemici e con costi di sviluppo e investimento esorbitanti. È essenziale valutare e gestire i rischi che derivano da queste caratteristiche in modo completo lungo tutta la catena del valore. Oltrettutto, rispetto ad altri software, è ancora più complicato aggiustarli ex-post una volta che i problemi vengono riscontrati.
La responsabilità deve stare nelle mani di coloro che hanno la capacità e l’efficacia di affrontarli: pochissime aziende. E infatti, la proposta normativa che l’Italia sta contribuendo a bloccare, avrebbe uno scopo applicativo molto ristretto, limitato sostanzialmente a meno di 20 entità nel mondo (con una capitalizzazione superiore a 100 milioni di dollari). Se questi attori venissero effettivamente regolamentati ne potrebbero beneficiare migliaia di implementatori a valle. E infatti la DIGITAL SME Alliance, che rappresenta 45.000 PMI ICT in Europa, ha chiesto una giusta attribuzione di responsabilità nella catena del valore. Questo prova che innovazione e regole non siano affatto in contrasto. I grandi sviluppatori possono e devono assumersi la responsabilità della gestione del rischio, e non possiamo accettare che a garanzia di questo potere sul futuro ci siano dei codici di condotta volontari – e quindi non applicabili.
L’Unione Europea ha una lunga storia di regolamentazione delle tecnologie che comportano rischi per la sicurezza pubblica, l’intelligenza artificiale non può essere un’eccezione. Per questo le organizzazioni italiane Privacy Network, Hermes Center for Transparency & Digital Human Rights, The Good Lobby Italia, StraLI, Period Think Tank e GenPol Insights hanno inviato una lettera a più di 500 attori, inclusi quelli istituzionali, per chiedere un riposizionamento del governo italiano in linea con le richieste di esperti e società civile e di riferire maggiori dettagli sulla posizione in Parlamento.
Fonte : Repubblica