Luci e ombre dell’IA secondo Demis Hassabis (Google DeepMind): “Dovremo preoccuparci tra tre o quattro anni”

Demis Hassabis, una delle 500 persone più influenti al mondo nel campo dell’IA secondo la rivista Time, pensa che “nei prossimi cinque anni” serviranno dispositivi innovativi come occhiali smart e visori per offrire all’intelligenza artificiale “maggiori informazioni di contesto” – fare in modo che le macchine vedano in tempo reale ciò che stiamo vedendo, per esempio – e per sfruttare al meglio le infinite possibilità che offre questa tecnologia.

“Oggi quello che riescono a fare gli smartphone è incredibile, con Gemini (l’IA più avanzata di Google, ndr) li abbiamo resi ancora più intelligenti ma tra cinque anni non so se lo smartphone sarà ancora il formato migliore per l’intelligenza artificiale”.

Hassabis, a capo del laboratorio di ricerca Google DeepMind, è stato intervistato da Steven Levy, giornalista della testata americana Wired, in occasione del Mobile World Congress, la fiera di Barcellona che le grandi aziende usano come vetrina per promuovere la tecnologia mobile.

Hassabis si è presentato ai visitatori del MWC in un momento particolarmente delicato. Gemini, l’IA con cui Google ha risposto a ChatGpt, la scorsa settimana ha fatto discutere perché i suoi utenti non riuscivano a generare immagini di persone dalla pelle bianca. Big G ha “messo in pausa” la sua intelligenza artificiale per risolvere questo problema. “Sarà di nuovo a disposizione molto presto – ha detto Hassabis – entro un paio di settimane al massimo”.

“Il fatto è che se chiedi all’IA di creare una persona che passeggia con un cane, oppure una infermiera in un ospedale, dovrebbe darti una rappresentazione universale di tutto questo, specialmente se si tiene conto del fatto che Google serve più di duecento paesi nel mondo, e che l’IA non sa da dove viene un utente oppure qual’è il suo background culturale” ha spiegato Hassabis.

“Ma una caratteristica voluta dell’IA, vale a dire la sua capacità di restituire un ampio spettro di possibilità [anche in termini di colori della pelle, ndr], in questo caso non ha funzionato nel modo in cui volevamo” ha aggiunto il Ceo di Google DeepMind.

Levy a questo punto ha fatto ad Hassabis una domanda più che lecita, oltre che giusta. La possibilità di indirizzare i risultati di un’intelligenza artificiale non è inquietante, se si pensa agli usi che se ne potrebbe fare? Google non vuole dare ancora più potere a regimi autoritari, per esempio, o alla propaganda di estrema destra o ancora a tutti coloro che intendono discriminare le minoranze, vero?

“Pensiamo a questo genere di cose da quando abbiamo fondato DeepMind [nel 2010, quattro anni dopo è stata acquisita da Google, ndr] – ha risposto Hassabis -. I principi etici di DeepMind, che abbiamo avuto fin dall’inizio, sono poi confluiti in quelli che oggi sono i ‘Google AI principles’ e che ci guidano nello sviluppo e nell’uso dell’intelligenza artificiale. C’è un dibattito in corso, che interessa anche i governi e la società civile, su come impedire alle persone sbagliate di accedere a questa tecnologia per farne un uso dannoso. Stiamo parlando di un tema complesso, che tocca anche l’open source [un tipo di tecnologia, come un software o un modello di IA, aperto a tutti e modificabile, ndr] di cui siamo grandi promotori. Proprio recentemente abbiamo lanciato Gemma, un modello di IA per la comunità open source. Perché sappiamo che molte persone, ma anche molte aziende, vogliono sviluppare e controllare direttamente ciò che fanno con l’IA. Ma ogni volta il tema dell’uso dannoso ritorna, e io dico che questo oggi non è un vero problema perché stiamo parlando di una tecnologia giovane. Ma tra tra pochi anni, tre o quattro, quando queste IA diventeranno più potenti e saranno in grado di pianificare e compiere azioni nel mondo reale, l’intera società dovrà preoccuparsi seriamente”.

Eppure proprio Demis Hassabis, che dice al mondo di non preoccuparsi troppo (per ora) dell’IA, nel 2023 ha firmato insieme ad altre decine di ricercatori, esperti e imprenditori – tra cui Sam Altman, l’amministratore delegato di OpenAI – una breve lettera dai toni apocalittici in cui si paragonano gli effetti di un’intelligenza artificiale fuori controllo a quelli letali di una pandemia o di un’arma nucleare.

Hassabis, che vanta una laurea in computer science all’Università di Cambridge e un dottorato di ricerca in neuroscienze cognitive all’Università di Londra, segue i progressi dell’intelligenza artificiale da circa 15 anni.

Nel 2010 ha avviato una startup chiamata DeepMind insieme a Shane Legg, filosofo e ricercatore nel campo dell’IA, e Mustafa Suleyman, un neuroscienziato e imprenditore. 

I tre fondatori di DeepMind avevano un obiettivo altrettanto ambizioso. Sognavano di raggiungere l’AGI, una forma di intelligenza artificiale che viene comunemente definita “generale”.

Per molti l’AGI, un giorno, sarà in grado di sostituirsi all’uomo. “Ma di questa IA ognuno dà una definizione diversa” ha detto Levy ad Hassabis, invitandolo a fornire la sua. “Per noi – ha detto il Ceo di Google DeepMind – è un sistema capace di replicare praticamente ogni tipo di abilità cognitiva. Il punto di riferimento resta sempre il cervello umano e le sue funzioni”.

Come e quando ci accorgeremo dell’avvento dell’AGI? Ci sarà, incalza Levy, un “prima e un dopo”? “Io credo che il passaggio all’AGI non sarà netto ma graduale – ha detto Hassabis -. Questi sistemi diventano sempre più potenti e la mia scommessa è che nei prossimi anni acquisiranno anche la capacità di memorizzare e pianficare. Ma io credo che non bisogna attendere impazientemente l’AGI se queste tecnologie, già oggi, possono fare qualcosa di estremamente utile nella vita di tutti i giorni”.

E di cose utili, finora, l’IA di DeepMind ne ha fatte diverse. Non stiamo parlando di riassunti o della scrittura automatica di una mail. Il lavoro dei ricercatori di questo laboratorio – che nel 2023 si è unito a Google AI  – ha consentito all’IA di battere i più grandi campioni di Go (AlphaGo, 2016), di predire la struttura tridimensionale delle proteine (AlphaFold, 2018) e di scovare 381mila nuovi materiali stabili (GNoME, 2023).

Eppure nonostante il contributo alla scienza, l’intelligenza artificiale più famosa al mondo, oggi, è probabilmente ChatGpt, un’interfaccia che comprende il linguaggio naturale e che si esprime come un essere umano lanciata a novembre 2022 da OpenAI.

Demis Hassabis non pensa che l’IA dell’azienda di Altman sia superiore: “Gli va dato adito di essere stati bravi ad accelerare la tecnologia Transformer  [alla base dei modelli linguistici di grandi dimensioni che permettono a ChatGpt, ma anche a Gemini di funzionare, ndr] con uno spirito tipico della Silicon Valley: l’hanno scalata senza contribuire al suo sviluppo come ha fatto Google nell’ultima decade, quando ha gettato le basi scientifiche”.

Rispetto a Google, OpenAI ha usato sicuramente meno cautele quando si è trattato di aprire al pubblico ChatGpt. “Per noi l’IA generativa doveva essere accurata al 100% – ha spiegato Hassabis -. Loro invece non ci hanno pensato due volte e l’hanno lanciata”. E si è scoperto, dice Hassabis, che in fondo le persone sono pronte ad accettare le “allucinazioni” che l’IA può produrre, perché anche quando commette degli errori può essere usata in modo utile. 

“Milioni di persone la trovano utile per ciò che devono fare – ha detto Hassabis – e la cosa sorprendente è che queste persone erano già pronte a utilizzarla, diversi anni prima di quanto pensassimo”.

Fonte : Repubblica