C’è un aspetto del video pubblicato da Google per il debutto di Gemini particolarmente interessante. Partiamo da un fatto ormai accertato: il contenuto è stato in larga parte alterato, per sovradimensionare le capacità del sistema, per posizionarlo come un competitor credibile per OpenAI. Del resto, dopo la telenovela tra Sam Altman e l’azienda di ChatGPT, era importante per Big G dare un segnale al mercato. E quindi svelare un nuovo prodotto, a prescindere dalle sue effettive capacità e dal suo grado di sviluppo.
La corsa alla commercializzazione e il marketing che conta più della sicurezza e della ricerca, sembrano essere state anche tra le cause dell’allontanamento (poi revocato) di Altman da OpenAI. Secondo molti analisti, in questa sfida commerciale il rischio è che si perda di vista la sicurezza, che si sviluppino sistemi pericolosi, per le società e per gli utenti.
E quindi oggi il punto è proprio capire di che cosa parliamo quando parliamo di intelligenza artificiale sicura.
Lo strano appello contro le IA: “Rischiamo l’estinzione”. Ma le aziende continuano a svilupparle
AI Safety, allineare l’intelligenza artificiale ai valori umani
“Un’importante distinzione nel campo dell’intelligenza artificiale, sia nell’ambito accademico sia in quello industriale, è quella tra AI Safety e AI Ethics – ci ha spiegato Giada Pistilli, responsabile Etica di Hugging Face, azienda franco-americana che sviluppa tool per il machine learning – Da una parte abbiamo la sicurezza, così come intesa da aziende come OpenAI e Anthropic: quell’idea per cui dobbiamo evitare danni a lungo termine, ottimizzando i sistemi”.
Partiamo da qui. La sicurezza dell’intelligenza artificiale, la AI Safety, è un concetto molto caro alla Silicon Valley e alle correnti di pensiero dell’altruismo efficace e del lungotermismo. Ha a che fare con l’idea che possa arrivare, presto o tardi, la cosiddetta intelligenza artificiale generale, ovvero un’IA più intelligente di un essere umano. Il rischio, in questo contesto, potrebbe essere l’estinzione. Ed è questo il punto di partenza del concetto stesso di sicurezza: creare paletti tecnici per fare in modo che non si verifichi lo scenario peggiore.
Uno strumento della AI Safety è quello che viene definito allineamento (qui ne avevamo messo in luce i punti deboli), una tecnica che dovrebbe fare in modo che l’IA rifletta i valori e le intenzioni degli umani. Una strategia di allineamento è il Reinforcement Learning From Human Feedback (in sigla, RLHF), ovvero la revisione degli output di un’IA da parte di gruppi di esseri umani, che scelgono tra diverse opzioni quale sia la risposta più adatta o giusta. È una strategia che OpenAI sta cercando di automatizzare: lo scorso luglio, la compagnia guidata da Sam Altman ha annunciato la volontà di destinare il 20% del budget per creare sistemi automatici di allineamento. IA che addestrano IA a pensare come esseri umani, potremmo dire.
“Nell’allineamento dell’intelligenza artificiale, c’è un elefante nella stanza – ha scritto il ricercatore De Kai sul New York Times – Allineamento, ma a quali tipi di obiettivi umani? Filosofi, politici e popolazioni hanno a lungo lottato con tutti i compromessi spinosi tra diversi obiettivi. Gratificazione istantanea a breve termine? Felicità a lungo termine? Evitare l’estinzione? Libertà individuali? Non c’è un consenso universale su questi obiettivi, figuriamoci su temi ancora più scottanti come i diritti sulle armi da fuoco, i diritti riproduttivi o i conflitti geopolitici. In effetti, la saga di OpenAI dimostra ampiamente quanto sia impossibile allineare gli obiettivi anche tra un piccolo gruppo di leader di una stessa azienda”.
AI Ethics, lo sviluppo responsabile dell’intelligenza artificiale
“L’AI Ethics si concentra su rischi più immediati, come bias, discriminazione e manipolazione – ci ha chiarito Pistilli – E parte da un presupposto: non esiste una soluzione universale, un silver bullet, per risolvere tutti i problemi”. Secondo Diletta Huyskes, head of advocacy di Privacy Network e CEO e co-founder di Immanence, “questa visione è organica: creare cicli e catene di valore nella produzione di sistemi di IA, dove è fondamentale assicurare il rispetto di certi standard, come la protezione dei diritti fondamentali”.
In altre parole, la differenza è il modo in cui si intende la sicurezza: l’approccio Safety prevede un intervento ex-post, a dare paletti, a ingegnerizzare i rischi di sistemi già sviluppati, mentre l’etica punta a intervenire in ogni momento della costruzione e dello sviluppo dell’intelligenza artificiale. Ancora: “Come Immanence, l’attività principale è supportare tecnici e team di governance nell’implementazione di sistemi di IA, sia nel costruire tecnologie Ethics by Design sia nel valutare tecnologie già esistenti. Questo implica analizzare i rischi e gli impatti di tali tecnologie e fornire raccomandazioni su come mitigare questi fattori”.
Pistilli ha precisato che “questa prospettiva può essere applicata in due momenti chiave della pipeline: nella fase di sviluppo, dove l’etica può essere integrata in decisioni specifiche come la scelta del dataset o dell’architettura, e nella fase di implementazione, dove si può intervenire sui casi d’uso e sui settori ad alto rischio”. Secondo Huyskes, comunque, “tutte le decisioni prese durante ogni momento del design di una IA, dalla creazione del dataset alla scelta del modello, devono essere consapevoli. L’idea è che le esigenze etiche specifiche siano determinate dal contesto in cui ogni progetto si inserisce. Per esempio, valutare le discriminazioni o gli impatti su determinate categorie sociali, o l’interazione umana con un software o un bot, richiede un’attenta considerazione del contesto specifico”.
Come intervenire oggi?
Sullo sviluppo responsabile dei sistemi sembra aver puntato anche l’AI Act dell’Europa, approvato lo scorso 9 dicembre. Il regolamento, a partire dal rischio, predispone un grado crescente di supervisione e restrizioni per i sistemi di intelligenza artificiale. In altre parole, le aziende che producono strumenti di IA con maggiore, potenziale danno per individui e società dovranno fornire ai regolatori la prova di valutazione del rischio, dettagli di quali dati sono stati utilizzati per addestrare i sistemi e garanzie che il software non causi danni come il perpetuare pregiudizi razziali.
Tuttavia, le norme non entreranno in vigore prima di due anni: un tempo enorme, in particolare per l’intelligenza artificiale. In questo periodo, saranno gli utenti a dover trovare contromisure, a convivere con sistemi addestrati su una quantità enorme di dati, tra cui molti contenuti protetti da copyright (qui un esempio). Inoltre, il materiale d’addestramento non è (quasi) mai stato reso noto ed è un segreto industriale, una sorta di formula della Coca-Cola dell’intelligenza artificiale: “Queste IA hanno spesso un problema principale – ci ha spiegato Enrico Panai, eticista dell’intelligenza artificiale – Se i dati sono stati collezionati in modo non corretto, con pregiudizi interni, discrepanze, omettendo alcuni tipi di informazione, i modelli funzionano in modo parziale, riportano bias e visioni precise del mondo. Del resto, dato è un participio passato: è qualcosa che è successo nel passato, che rischia così però di essere ripetuto costantemente nel futuro”.
Ed è quello che può succedere con l’intelligenza artificiale generativa: addestrati su buona parte del materiale presente sul Web, questi sistemi possono, tra le altre cose, replicare pregiudizi o produrre disinformazione. Tutti effetti che ogni utente di Internet sta già vivendo e che stanno già avendo conseguenze sulla qualità dell’informazione sul Web: “Immaginiamo di avere in cucina 3 bottiglie, acqua, vino bianco scadente e Monbazillac dell’88 – ci ha detto Panai – Queste bottiglie sono magiche: si entra in cucina, si dice che si vuole una nuova bottiglia e un sistema automatico compone un miscuglio. Si avrà un vino accettabile, ma non una bottiglia eccellente. Si può sempre migliorare l’indicazione, cioè il prompt”. Ancora: “Immaginiamo questa stessa situazione con 100 milioni di bottiglie, che sono poi i parametri. Non si avrà mai più una bottiglia originale, ma sempre miscugli più scadenti. Il rischio è che in futuro la qualità media dei contenuti su Internet diminuisca sempre di più, che tutto diventi miscuglio”.
In conclusione, Pistilli ci ha chiarito che “esistono misure palliative che possono essere adottate per orientare questi sistemi in modo responsabile, per esempio focalizzandosi sul valore del consenso, come i meccanismi di opt-out per i dati, oppure il watermarking per etichettare i contenuti generati da IA. Tuttavia, non sono soluzioni facili da implementare. Ma se il problema fossero i foundation model, i sistemi ampi e vasti come ChatGPT? Mi sembra ci sia sempre più la necessità di avere modelli di IA che svolgano compiti specifici, controllati sia eticamente sia tecnicamente. E questa potrebbe essere una strada verso un uso dell’intelligenza artificiale contestualizzato e più controllabile”.
Fonte : Repubblica