Nel corso dell’ultima settimana, Sam Altman ha scritto due post su X di fondamentale importanza per il futuro dei contenuti generati attraverso ChatGpt.
Il primo risale al 25 marzo scorso, il giorno in cui OpenAI ha aperto al pubblico una versione potenziata del modello Gpt-4o capace di produrre immagini estremamente realistiche.
“Per noi questo è un nuovo traguardo nel consentire la libertà creativa – ha scritto il CEO di OpenAI -. Gli utenti creeranno cose davvero sorprendenti e altre che potrebbero offendere altre persone. Il nostro obiettivo è uno strumento che non crei cose offensive a meno che tu non lo voglia, e che in tal caso lo faccia entro limiti ragionevoli”.
“Crediamo che sia giusto affidare agli utenti questa libertà intellettuale e questo controllo, ma osserveremo attentamente come andranno le cose e ascolteremo le esigenze della società. Riteniamo sia corretto rispettare i limiti — anche molto ampi — che la società sceglierà di imporre all’intelligenza artificiale, un aspetto sempre più cruciale man mano che ci avviciniamo all’AGI [l’intelligenza artificiale generale, che secondo Altman, un giorno supererà ed eguaglierà le capacità umane, ndr]”.
Qualche giorno dopo, il 28 marzo scorso, Sam Altman ha scritto nuovamente su X: “La nuova versione di Gpt-4o è particolarmente brava col codice, nel seguire le istruzioni e nel garantire la libertà”.
Ancora una volta, il CEO di OpenAI sottolinea l’importanza della libertà.
Una libertà creativa ma anche d’espressione.
Non si coglie appieno dalle parole di Altman, ma ChatGpt e la sua intelligenza artificiale – utilizzata da 400 milioni di utenti attivi ogni settimana – sono oggetto di un cambiamento radicale.
Per capirlo bisogna leggere una nota pubblicata da Joanne Jang, responsabile del “comportamento” dei modelli di OpenAI, sulla sua newsletter “Reservoir Samples”.
Il passaggio chiave è questo:
“Stiamo passando da rifiuti generici [dell’IA] in ambiti delicati a un approccio più preciso, mirato a prevenire danni concreti nel mondo reale. L’obiettivo è abbracciare l’umiltà: riconoscere quanto ancora non sappiamo e metterci nella condizione di adattarci man mano che impariamo”.
OpenAI insomma sta cercando il modo di bilanciare l’utilità dei modelli e la sicurezza degli utenti.Il risultato di questo cambiamento è evidente: per la prima volta l’IA dell’azienda guidata da Altman può generare immagini realistiche di personaggi pubblici e anche loghi di brand famosi.
Tra i chatbot più popolari in circolazione, appartenenti alle principali società impegnate nella corsa all’IA, soltanto Grok – l’intelligenza artificiale di Elon Musk – consentiva finora la generazione di deepfake di figure pubbliche.
“Riconosciamo che questo potrebbe essere interpretato come ‘OpenAI abbassa i suoi standard di sicurezza’” ha scritto Joanne Jang.Ma la ricercatrice di OpenAI ha poi provato a spiegare i motivi che hanno determinato il cambio di rotta dell’azienda. Una svolta – come si è detto – all’insegna dell’umiltà.
“I dipendenti dei laboratori di intelligenza artificiale non dovrebbero essere gli arbitri di ciò che le persone sono o non sono autorizzate a creare – si legge nella newsletter di Jang -. Dopo ogni lancio [di un prodotto, ndr] siamo sorpresi dallo scoprire casi d’uso che non avevamo mai immaginato — o anche quelli che sembrano così ovvi a posteriori ma che non ci sono venuti in mente a causa delle nostre prospettive limitate”.
Ecco, dunque, come i ricercatori di OpenAI intendono abbracciare l’umiltà: riconoscendo i propri limiti.
“È facile concentrarsi sui potenziali danni, e le restrizioni ampie sembrano sempre la scelta più sicura (e più semplice!) – ha spiegato Jang -. Spesso ci sorprendiamo a chiederci: ‘Abbiamo davvero bisogno di migliori capacità di creare meme quando gli stessi meme potrebbero essere usati per offendere o ferire le persone?’. Ma penso che questo approccio sia sbagliato. Implica che i benefici quotidiani, anche sottili, debbano giustificarsi contro scenari ipotetici peggiori, il che svaluta come questi piccoli momenti di piacere, umorismo e connessione migliorino genuinamente la vita delle persone”.
Per Jang insomma esistono numerose “interazioni positive, innovazioni e idee delle persone che non si realizzano semplicemente perché abbiamo temuto lo scenario peggiore”.
Per questi motivi OpenAI ha effettivamente ridotto i filtri e le censure applicate, in precedenza, alla sua intelligenza artificiale capace di generare immagini.
E il risultato è che – per quanto riguarda per esempio la generazione di foto realistiche di personaggi pubblici – piuttosto che essere arbitri di chi è “abbastanza importante”, i ricercatori di OpenAI hanno creato un elenco riservato “a chiunque decida autonomamente” di essere escluso dall’essere rappresentato.
Persino i simboli d’odio, come una svastica, saranno soggetti ad attenta valutazione da parte del modello e non a rifiuto categorico.
“Riconosciamo che simboli come le svastiche portano con sé una storia profonda e dolorosa – ha scritto Jang – Allo stesso tempo, comprendiamo che possono anche apparire in contesti genuinamente educativi o culturali. Vietarli completamente potrebbe cancellare conversazioni significative e l’esplorazione intellettuale. Invece, stiamo lavorando su metodi tecnici per identificare e rifiutare un uso dannoso di tali simboli”.
Sui minori, invece, OpenAI non intende transigere: “Ogni volta che abbiamo preso una decisione sugli utenti più giovani, abbiamo deciso di essere prudenti: scegliendo protezioni più forti e controlli più rigidi per le persone sotto i 18 anni, sia nella ricerca che nei prodotti” ha spiegato la responsabile del comportamento dei modelli di OpenAI.
Il nuovo “corso” di OpenAI si può riassumere con una metafora.
È quella che Joanne Jang ha imparato dal suo collega Jason Kwon, il Chief Security Officer di OpenAI:
“Le navi sono più sicure in porto; il modello più sicuro è quello che rifiuta tutto. Ma non è per questo che servono le navi o i modelli”.
Fonte : Repubblica