“Fa schifo”. “È così pessimo che mi fa dubitare della capacità dell’azienda di fare qualsiasi cosa”. “Le GPT più promettenti sono terribili, mentre quelle più votate funzionano male”.
Su Reddit, una delle community più popolate e preparate della rete – a marzo prossimo si quoterà in borsa – gli utenti non risparmiano critiche al GPT Store di OpenAI, l’azienda di San Francisco che ha creato ChatGpt.
Il GPT Store, lanciato il 10 gennaio scorso, è la vetrina virtuale delle GPT, le intelligenze artificiali personalizzate che gli scritti a ChatGpt Plus possono creare seguendo pochi, semplici passaggi.
Basta scegliere un nome, proporre l’idea per un logo, fornire istruzioni sui problemi che la GPT deve risolvere e infine caricare – se disponibili – documenti che possono essere utili ad addestrare l’IA a svolgere compiti specifici. Una serie di ricette, per esempio, se si intende creare una IA che dia consigli di cucina.
Mettere al mondo una IA, insomma, è molto facile. Trovarne una sul GPT Store che sia soddisfacente, invece, a quanto pare è terribilmente complicato.
Il problema dell’offerta di GPT
OpenAI ha dichiarato che finora sono state create “più di 3 milioni di ChatGpt personalizzate” [le GPT, appunto]. Ma il primo, evidente problema che si incontra – quando si “esplora” il GPT Store – è che l’offerta di IA sia estremamente povera.
Ci sono otto sezioni dello store, ognuna relativa a un’area di utilizzo che OpenAI evidentemente ritiene popolare. Si va dalla generazione delle immagini (sotto l’etichetta “Dall-E”) alla produzione di scritti inediti (“Writing”). Ognuna di queste sezioni propone al massimo dodici GPT. Sono quelle più “popolari” – in base al numero di conversazioni che hanno avuto con gli utenti – o quelle che crescono più rapidamente.
Ma non c’è modo di andare oltre le prime dodici GPT evidenziate nelle sezioni. E a pensarci bene questo è un numero davvero esiguo se si tiene conto della ricchezza di intelligenze artificiali sbandierata da OpenAI.
La situazione non migliora, anzi peggiora decisamente, se si effettua una ricerca “libera” sullo store, utilizzando la barra che permette di accedere alla totalità delle “GPT pubbliche”.
Anche in questo caso non si ottengono pagine e pagine di risultati, come ci si potrebbe attendere, con le GPT più popolari in testa e a seguire una lunghissima lista che conduce a quelle meno utilizzate. Compare invece, proprio sotto le parole chiave usate per effettuare la ricerca, una lista di undici GPT.
Proprio così: digitando “News”, per esempio, si ottengono solo undici GPT dedicate alle notizie. Per avere qualcosa in più bisogna ingegnarsi: scrivere “Sport News”, per esempio, conduce a – undici – risultati diversi.
Il problema della ricerca di GPT
A questo punto emerge il secondo, grande problema del GPT Store. L’elenco delle GPT che si riceve dopo una ricerca spesso ne contiene alcune che non sono mai state utilizzate. Oppure che sono state utilizzate meno di dieci volte.
Accade, tra l’altro, che l’elenco non segua un particolare ordine: non è detto che la GPT in cima all’elenco sia quella più usata dagli altri utenti. Scoprire quanto una GPT è popolare, infatti, è facile: basta guardare il numero che appare vicino al nome di chi l’ha creata.
Il problema dello scarso utilizzo delle GPT
Il terzo problema del GPT Store emerge proprio se si osservano i numeri che indicano l’utilizzo delle GPT. Sono quasi sempre molto bassi.
Se si cerca “Writing” per esempio – che si presuppone sia un tema importante viste le capacità di ChatGpt di generare testi – sei delle undici GPT proposte dal motore di ricerca del GPT store non superano gli otto utilizzi. Se si prova con “Recipe”, vale a dire con il mondo delle ricette e della cucina, ben cinque GPT su undici sono ferme a zero utilizzi.
Insomma il meccanismo di esposizione/ricerca dello store di OpenAI non funziona come dovrebbe e non si avvicina, neanche lontanamente, al modello App Store a cui inizialmente è stato accostato. Per avere risultati migliori, in termini di esplorazione delle GPT, bisogna usare strumenti alternativi – e non ufficiali – come GPT Ranked e GPTs Hunter.
Il problema dei messaggi
Ma anche se un utente alla fine trovasse la sua GPT ideale, andrebbe incontro al quarto, gigantesco problema del GPT store e più in generale delle GPT. Anche le IA personalizzate di OpenAI, infatti, rispettano il limite dei 40 messaggi ogni tre ore. Avete capito bene. Anchi chi è iscritto a ChatGpt Plus, e dunque paga 20 euro al mese (più tasse), non può superare le 40 richieste al chatbot quando si usa il modello più avanzato di IA – chiamato Gpt-4 – su cui è basato il funzionamento delle GPT. Un massimo di interazioni che OpenAI non specifica in fase di iscrizione.
Il limite dei 40 messaggi interessa più chi usa le GPT di chi le crea. Ma affligge comunque l’intero ecosistema, perché gli ideatori delle GPT molto presto – OpenAI ha promesso entro il primo trimestre del 2024 – inizieranno a guadagnare dall’uso che gli altri utenti faranno delle loro “creature”.
Tuttavia effettuare anche la più semplice delle operazioni con 40 richieste a disposizione è particolarmente complesso. Non sempre – come sa bene chi usa di frequente l’IA generativa – la prima risposta che si ottiene dall’intelligenza artificiale è quella desiderata. Anzi c’è bisogno di diverse interazioni, spesso, per “aggiustare” il tiro e affinare i contenuti.
Il problema dell’affidabilità
Il quinto problema, che emerge sempre più chiaramente con l’utilizzo delle varie GPT presenti sullo store di OpenAI, è che si ha a che fare spesso con intelligenza artificiali che offrono consulenze mediche – o addirittura sentimentali – senza garantire quasi mai l’affidabilità di chi le ha create. Sotto il nome di ogni GPT c’è un’indicazione riguardo il suo ideatore, con un collegamento ipertestuale che porta l’utente a una pagina web di riferimento. Ma quella pagina web, spesso, non è una garanzia dei contenuti dell’IA. Anzi, in molti casi è addirittura la “vetrina” stessa della GPT.
Tutto questo si aggiunge al problema (extra) ancora non risolto dell’IA generativa, ovvero la tendenza di questa tecnologia ad “allucinare” i dati, vale a dire a fornire risposte che sembrano plausibili ma che in realtà sono state totalmente inventate dagli algoritmi. Il tasso di allucinazione di ChatGpt è di circa il 3%, una percentuale che sembra bassa ma che in realtà può avere effetti devastanti se il contenuto generato riguarda soprattutto consigli riguardanti la salute.
Fonte : Repubblica