Intelligenza artificiale, come gestire una crisi finanziaria? OpenAI studia un piano italiano

Gli ingredienti sono già tutti sul tavolo: intelligenza artificiale generativa, fake news, campagne di disinformazione abbinate ad attacchi cibernetici, sistemi di manipolazione del mercato. Il mix letale è la combinazione di tutti questi elementi per colpire una nazione vulnerabile, con un’economia traballante, e scatenare un collasso finanziario, un crollo della valuta locale e una crisi sociale e politica, capace di contagiare le piazze internazionali. La trama da thriller è contenuta in uno scenario scritto per i vertici di OpenAI, la società che ha sviluppato i sistemi di intelligenza artificiale generativa di ChatGPT, il potente chatbot di famiglia.

Lo scorso ottobre la multinazionale ha lanciato un bando per raccogliere idee su come farsi preparare pronta a gestire crisi scatenate dalle sue stesse tecnologie, proprio mentre la crisi ribolliva dentro casa (ricordate la defenestrazione del fondatore, Sam Altman, e il suo repentino richiamo al timone?). Cosa dobbiamo fare, se ChatGPT o Dall-E, che genera immagini, vengono asserviti ai piani dei cattivi? OpenAI ha lanciato un appello: diteci dove vedete rischi e spiegateci come li affrontereste. Solo qualche settimana fa, a metà aprile, ha svelato i progetti più interessanti. Tra cui c’è un documento firmato Claudia Biancotti, dirigente del dipartimento di Informatica della Banca d’Italia. È suo lo scenario al cardiopalma sul terremoto economico che potrebbe provocare un’AI manipolata per far danni, l’unica tra le idee raccolte da OpenAI che si occupi di finanza.

Scenari di crisi

A quanto apprende Wired, Biancotti ha partecipato al bando a titolo personale. Ma il suo lavoro è stato influenzato dall’aria che si respira a Palazzo Koch, che ha in forze un nutrito team di ricerca che esplora varie applicazioni della tecnologia: dalla distributed ledger technology (dlt, tecnologia a registro distribuito come la blockchain), da integrare con la finanza tradizionale, all’AI deduttiva, da strumenti per elaborare dati cifrati senza decrittarli al quantum computing. Fino all’intelligenza artificiale generativa. Quella che ha mosso Biancotti a rispondere alla chiamata di red teaming da parte di OpenAI, ossia la pratica di mettersi dalla parte dell’attaccante per capire come difendersi. In questo caso, un’AI manipolata dalle menti sbagliate.

La multinazionale ha richiesto una proposta di scenario, una proof of concept e una strategia di difesa. Lo scenario, per ragioni di sicurezza, è stato mantenuto sotto chiave da OpenAI per evitare che ispiri gruppi con intenzioni malevole. Così come gli altri nove che hanno vinto la gara (con relativo premio: l’equivalente di 25mila dollari in credenziali applicative su ChatGPT), che vanno dalla manipolazione del dosaggio di un farmaco alle interferenze nei segnali del traffico aereo, dall’attacco ai dati sanitari all’affinamento di truffe online. In sintesi, Biancotti ha immaginato uno scenario in cui un gruppo di attori malintenzionati induce una crisi finanziaria sfruttando l’AI. E lo fa attraverso la destabilizzazione della moneta di una nazione economicamente vulnerabile (per ragioni politiche ed economiche), attraverso campagne di disinformazione e attacchi cyber.

Come una meme stock

Gli strumenti già ci sono, quello che lo scenario mostra è il salto qualitativo assicurato dall’AI generativa. Per esempio, il monitoraggio in tempo reale di un’azione da parte di un sistema di intelligenza artificiale, che poi si intrufola nelle chat di investitori e risparmiatori su forum specializzati e piattaforme come Reddit e, emulando il linguaggio di alcuni, orienta vendite e acquisti per alterare il mercato. Lo spunto arriva da uno studio condotto sempre da Biancotti con Paolo Ciocca, ex commissario della Consob (l’autorità per la sorveglianza dei mercati) e attualmente professore in Luiss e presidente di Open Fiber, che esplorava l’influenza dei social sulle decisioni finanziarie, partendo dal caso delle azioni di Gamestop, catena statunitense di negozi di videogiochi, finite all’inizio del 2021 su un ottovolante di alti e bassi deciso dalle interazioni online e arrivato sui banchi del Congresso di Washington.

Fonte : Wired