Parlando agli studenti dell’Università di Stanford, qualche giorno fa, Sam Altman ha detto che “ChatGpt non è fenomenale”. Anzi, il chatbot di OpenAI – secondo Altman – “è imbarazzante”.
Le critiche all’intelligenza artificiale generativa più famosa del mondo, usata ogni mese da più di cento milioni di utenti, arrivano proprio dall’uomo che la rappresenta nel mondo.
Altman ha co-fondato OpenAI nel 2015 e dal 2019, salvo il breve periodo in cui è stato estromesso a sorpresa dal board, ricopre il ruolo di amministratore delegato dell’azienda. Eppure Altman ha riservato parole dure alla tecnologia sviluppata da OpenAI: “Gpt-4 è di gran lunga il modello più stupido che vi troverete mai a utilizzare” ha detto nel corso del talk di cui è stato protagonista a Stanford.
Colpisce il fatto Altman abbia screditato una pietra miliare dell’IA generativa, capace di scrivere e produrre immagini come farebbe un essere umano.
Gpt-4 infatti è il modello di IA più avanzato dell’azienda di San Francisco. È stato presentato soltanto un anno fa e si basa su circa 1,76 trilioni di parametri. I parametri di una IA sono, in sintesi, il valore che descrive a grandi linee la complessità e le performance di un modello.
È vero che ChatGpt, negli ultimi mesi, è stata accusata più volte di essere diventata particolarmente “pigra”. La stessa OpenAI ha riconosciuto, a un certo punto, un deterioramento del modello Gpt-4, scrivendo sul social X di aver contrastato il problema riscontrato dagli utenti.
Ma è anche vero che Gpt-4 – rappresenta ancora oggi il punto di riferimento più alto per le big tech che sviluppano LLM, vale a dire i modelli di IA su cui si basano strumenti come ChatGpt, appunto, ma anche Gemini (Google) e Claude (Anthropic).
Quindi che interesse ha Sam Altman a dire che la sua “creatura” non è poi così eccezionale?
I motivi potrebbero essere almeno due.
Il primo è quello che si augurano i fan di OpenAI, di ChatGpt e più in generale dell’IA generativa: l’azienda guidata da Altman sta per lanciare un nuovo modello di intelligenza artificiale, l’atteso Gpt-5, che supererà di gran lunga qualsiasi IA sviluppata in precedenza. E che, addirittura, farà impallidire Gpt-4 al punto da rendere questa tecnologia “imbarazzante”.
Il secondo motivo, invece, non avrebbe nulla a che vedere con Gpt-5.
Sparando a zero su Gpt-4, Altman potrebbe aver messo in pratica una delle operazioni di marketing che a OpenAI, a giudizio di molti, riescono particolarmente bene. Come quando, qualche mese fa, qualcuno dall’azienda ha fatto trapelare l’esistenza di un fantomatico “Project Q”, vale a dire un’intelligenza artificiale così progredita da costituire una possibile minaccia per l’umanità. Nessuno è mai riuscito ad appurare se questa IA esista davvero. Ma intanto l’hype intorno alla tecnologia di OpenAI è cresciuto ulteriormente.
Oggi come allora, dunque, il vero obiettivo del Ceo di OpenAI non sarebbe stato impressionare gli studenti di Stanford o gli appassionati di IA, piuttosto lanciare un’esca agli investitori.
Non sappiamo se OpenAI sarà davvero in grado di lanciare Gpt-5 entro l’estate, come molti si attendono, ma nel frattempo Altman – da persona informata dei fatti – lascia intendere che la sua azienda può fare un passo in avanti importante.
Mezzi e dati per fare qualcosa di grande, in fondo, a OpenAI non mancano.
Microsoft – il principale investitore di OpenAI – è pronta a spendere 100 miliardi di dollari in una rete di supercomputer che nei prossimi anni darà una spinta enorme allo sviluppo dell’IA.
Alla potenza di calcolo l’azienda guidata di Altman unirà l’altro ingrediente fondamentale per mettere insieme un LLM: enormi database, provenienti stavolta dai media più importanti del mondo. Diversi quotidiani, dal Financial Times a Le Monde, hanno firmato accordi milionari per concedere i loro archivi in licenza a OpenAI. Finiranno in pasto a ChatGpt, che così diventerà ancora più “intelligente”.
Forse in grado, un giorno, di ragionare come un essere umano.
Stiamo parlando dell’AGI, l’artificial general intelligence che OpenAI insegue fin dalla sua fondazione. Dell’AGI non esiste una definizione univoca, ma per molti è quell’IA che un giorno svilupperà capacità cognitive simili o superiori a quelle delle persone, e che come loro sarà capace di affrontare problematiche e di prendere decisioni.
A Stanford, Altman si è espresso anche su questo. Ha detto che OpenAI intende raggiungere l’AGI a tutti i costi.
“Non mi importa se bruceremo 500 milioni di dollari all’anno per farlo – ha detto Altman –. Non mi importa neanche se saranno 5 miliardi all’anno. Oppure 50. Non mi importa finché saremo su una traiettoria che ci consentirà alla fine di creare qualcosa di valore per la società”.
“E finché avremo soldi per pagare gli assegni – ha aggiunto Altman – ne varrà la pena. Anche se sarà costoso”.
Ma il prezzo, come lo stesso Altman ci ripete da tempo, potrebbe non avere a che fare soltanto col denaro.
“Una cosa che bisogna tenere a mente – ha detto il Ceo di OpenAI a Stanford – è che non si può pretendere che questa tecnologia, come tutte le tecnologie, sia solo buona. Io credo che sarà tremendamente a fin di bene, ma credo anche che qualcuno potrebbe farne un uso sbagliato. È come un martello: puoi farci grandi cose oppure puoi usarlo per uccidere qualcuno”.
Ecco perché, secondo Altman, in futuro le big tech dovrebbero rilasciare i loro nuovi modelli in modo più “responsabile”, vale a dire gradualmente e attraverso piccoli passi, evitando grandi salti in avanti. Per dare la possibilità agli utenti – e più in generale alla società – di metabolizzare l’IA.
E quindi sarebbe meglio che OpenAI, a questo punto, rilasciasse un modello intermedio, Gpt-4.5 per esempio, e non Gpt-5.
Chissà, nei prossimi mesi potrebbe andare realmente così.
Fonte : Repubblica