OpenAI ha introdotto due nuovi modelli di intelligenza artificiale, o3 e o4-mini, con capacità inedite di ragionare in modo più profondo e visivo.
Non si tratta di un semplice aggiornamento, ma di un cambio di paradigma: questi modelli sono progettati per affrontare problemi complessi non solo attraverso il testo, ma anche integrando e interpretando immagini come parte del processo di “pensiero”.
L’azienda guidata da Sam Altman passa insomma da o1 a o3 (e o4) saltando palesemente un numero. Il motivo è curioso: il nome “o2” è stato scartato per evitare conflitti legali con l’operatore telefonico britannico O2.
Le capacità dei nuovi modelli o3 e o4-mini
Il modello o3 è, ad oggi, il più avanzato mai realizzato da OpenAI in termini di ragionamento. È particolarmente efficace nei compiti complessi come la programmazione, la matematica e l’analisi scientifica.
Il modello o4-mini, pur essendo più piccolo e meno costoso, offre prestazioni sorprendenti, soprattutto nei contesti in cui sono richiesti velocità ed efficienza.
Una caratteristica distintiva di entrambi i modelli è la capacità di “pensare” con le immagini. Questo significa che sono in grado di integrare input visivi direttamente nei loro processi di ragionamento. Ad esempio, gli utenti possono caricare immagini come schizzi o diagrammi su una lavagna: i modelli riescono ad analizzarli effettuando zoom, rotazioni o ritagli per ricavarne le informazioni più rilevanti.
Entrambi i modelli o3 e o4-mini possono usare la funzione “deep research”, una ricerca più approfondita sul web.
Il “ragionamento” per immagini e i timori per la privacy
Queste capacità di analisi delle immagini, unite alla possibilità inedita dei modelli di ragionamento di effettuare ricerche sul web – una funzione che o1, per esempio, non ha mai avuto – costituiscono un potente strumento per l’individuazione di luoghi.
Alcuni utenti su X hanno scoperto che o3, in particolare, è piuttosto efficace nel dedurre città, punti di riferimento e persino ristoranti e bar a partire da sottili indizi visivi caricati dagli utenti.
Rispetto ai modelli precedenti in grado di “ragionare”, come o1, o3 e o4-mini presentano capacità potenziate.
Nei test di benchmark relativi alla programmazione, o3 e o4-mini hanno superato le prestazioni di o1 – il precedente modello dedicato al ragionamento di OpenAI – raggiungendo rispettivamente nel SWE-bench un punteggio del 69,1% e del 68,1%. Inoltre i due nuovi modelli hanno mostrato una maggiore competenza in più lingue e una riduzione significativa delle allucinazioni, il fenomeno che si verifica quando una IA produce risposte plausibili ma in realtà inventate o errate.
Chi può usare i nuovi modelli
Gli utenti dei piani ChatGpt Plus, Pro e Team hanno accesso immediato a entrambi i modelli, incluso o4-mini-high, una variante che genera risposte più affidabili dedicando più tempo all’elaborazione.
Gli utenti Enterprise ed Education dovranno attendere qualche giorno in più, ma potranno comunque usare i nuovi modelli entro il 23 aprile.
Chi usa ChatGpt gratis, invece, può provare o4-mini attraverso la funzione chiamata “Think”, a cui si accede cliccando sulla lampadina che si trova sotto il box riservato al testo per le domande.
I limiti di utilizzo restano invariati rispetto ai modelli precedenti.
Fonte : Repubblica