Qualche giorno prima che Sam Altman venisse licenziato da OpenAI, alcuni ricercatori hanno comunicato al consiglio di amministrazione dell’azienda una scoperta scientifica che – stando alle fonti citate da Reuters nel riportare questa notizia esclusiva – potrebbe costituire un pericolo per l’umanità.
La loro lettera avrebbe innescato un “colpo di stato” da parte del board, che all’epoca era composto da Altman e altre cinque persone.
Almeno in quattro – il direttore scientifico di OpenAI Ilya Sutskever, la sostenitrice dell’Altruismo effettivo Helen Toner, l’esperta in robotica Tasha McCauley e l’imprenditore Adam D’Angelo – hanno votato per rimuovere con urgenza il Ceo dell’azienda, preoccupati dal fatto che Altman avrebbe potuto commercializzare una potente tecnologia senza valutare adeguatamente i suoi rischi.
Nella lettera dei ricercatori di OpenAI – che Reuters non ha avuto ancora modo di leggere – si farebbe riferimento a un nuovo progetto dell’azienda, chiamato Q* (si legge Q Star), che riguarderebbe un tipo di IA molto vicina all’AGI, l’intelligenza artificiale generale che è in grado di replicare – e in alcuni casi sorpassare – le capacità umane.
OpenAI, fondata a San Francisco nel 2015 da un gruppo di ricercatori e imprenditori, tra cui Sam Altman ed Elon Musk, è diventata famosa nel mondo per la sua intelligenza artificiale generativa capace di scrivere (ChatGpt) e creare immagini (Dall-E) come farebbe un essere umano. Ma la sua vera missione, fin dall’inizio, è quella di raggiungere l’AGI “per il bene dell’umanità”.
OpenAI definisce l’AGI come un sistema autonomo che supera gli esseri umani “nella maggior parte delle attività che hanno un valore economico”.
Mentre l’IA generativa si basa su modelli predefiniti, e imita la creatività umana senza comprendere realmente il significato di ciò che crea, l’AGI è un tipo di intelligenza artificiale molto più avanzato.
L’AGI può apprendere e comprendere problemi specifici come farebbe un essere umano. Inoltre può adattarsi a nuove situazioni senza dover essere addestrata in modo specifico per ogni compito.
Alcuni ricercatori di OpenAI credono che Q* sia vicino alle capacità dell’AGI perché è stata in grado di risolvere alcuni problemi matematici. Sarebbero problemi piuttosto “semplici”, di quelli che si affrontano alle scuole elementari, ma per OpenAI questo risultato avrebbe un’importanza enorme.
Sappiamo, infatti, che ChatGpt è molto brava a scrivere testi – le cui risposte variano ogni volta proprio perché sono il frutto di un modello statistico – mentre commette numerosi errori in matematica, dove è ammessa una sola risposta esatta. Questa capacità di Q*, secondo i ricercatori di OpenAI, avvicinerebbe l’intelligenza artificiale alle capacità di ragionamento della mente umana.
Nello specifico, dunque, Q* non sarebbe una tecnologia “letale” per l’uomo. Ma potrebbe essere un primo passo verso l’IA in grado di pensare e agire come un uomo. Una IA che un giorno, proprio per la sua capacità di ragionamento e adattamento, potrebbe prendere decisioni autonome.
Il 6 novembre scorso, in occasione del DevDay, Sam Altman ha chiuso la giornata dedicata da OpenAI agli sviluppatori affermando: “Nel 2024 quello che abbiamo lanciato oggi [le intelligenze artificiali personalizzate chiamate GPT, nda] vi sembrerà antiquato rispetto a ciò che stiamo costruendo per voi”. Evidentemente non era solo una frase buona per il marketing.
Il 16 novembre scorso, partecipando a un convegno a San Francisco, lo stesso Altman ha fatto riferimento in modo criptico a nuovi importanti avanzamenti: “Nelle ultime due settimane, ho avuto l’opportunità di essere nella stanza nel momento in cui abbiamo spinto indietro il velo dell’ignoranza e abbiamo spostato in avanti la frontiera della scoperta”.
Sul social network X, inoltre, circola anche la clip di un discorso che si dice si dice sia stato pronunciato da Altman sempre il 16 novembre scorso, ma in un’occasione diversa. Gli utenti di X lo condividono sottolineando una sua frase: “Quello che abbiamo creato è uno strumento o una creatura?”. Ma Altman in realtà sembra riferirsi all’attimo “di paura” che ha provato chi ha usato ChatGpt per la prima volta.
Il giorno dopo questo intervento, Sam Altman è stato licenziato dal board.
L’esilio dell’imprenditore è durato appena quattro giorni. Le pressioni dei dipendenti di OpenAI e degli investitori – Microsoft su tutti – hanno riportato Altman in azienda. Sam è di nuovo il Ceo dell’azienda. E il suo potere, ora, è ancora più grande. Se questo sia un bene o un male per il futuro dell’IA, non è dato saperlo.
I passi in avanti dell’intelligenza artificiale non preoccupano solo chi ha provato a far fuori Altman da OpenAI.
Pionieri dell’IA, accademici, governi e persino le stesse aziende che sviluppano questa tecnologia rivoluzionaria concordano sulla necessità di regole che possano tenerla sotto controllo. Soprattutto per mitigare, secondo alcuni esperti, scenari apocalittici.
“Ridurre il rischio di estinzione rappresentato dalle IA dovrebbe essere una priorità globale insieme con la riduzione di altri rischi come le pandemie e la guerra nucleare” si legge nella breve lettera pubblicata a maggio scorso dal Center for AI Safety di San Francisco e fimrata da scienziati e imprenditori, tra cui Sam Altman.
Ma un anno dopo il lancio di ChatGpt – avvenuto il 30 novembre 2022 – alcuni tra i più grandi esperti di intelligenza artificiale iniziano a pensare che Altman – e dunque OpenAI – stia esagerando volutamente con i rischi legati all’AI.
“L’idea che l’intelligenza artificiale possa portare all’estinzione dell’umanità è una menzogna. È stata divulgata dai colossi tech nella speranza di innescare una pesante regolamentazione che bloccherebbe la concorrenza nel mercato dell’intelligenza artificiale”.
È il pensiero di Andrew Ng, uno dei 100 esperti di AI più influenti del pianeta secondo il Time, nonché professore alla Stanford University – ha insegnato machine learning anche a Sam Altman – nonché co-fondatore di Google Brain, il laboratorio di ricerca sull’AI che poi si è fuso con Deep Mind.
“Ci sono grandi aziende tecnologiche che non intendono competere con l’intelligenza artificiale open-source – ha detto Andrew Ng all’Australian Fortune Review – e quindi stanno diffondendo il timore che l’intelligenza artificiale porti all’estinzione umana”.
La pensa allo stesso modo Yann LeCun, uno dei padri dell’intelligenza artificiale moderna, premiato nel 2018 con il Turing Award – l’equivalente del Nobel per l’informatica – per i suoi studi sul deep learning.
“Se questa campagna di allarmismo ingiustificato avrà successo – ha detto Le Cun, attualmente a capo dell’IA di Meta, l’azienda che controlla Instagram e Facebook – il risultato finale sarà catastrofico: una piccola percentuale di aziende controllerà l’intelligenza artificiale”.
Fonte : Repubblica