Dopo il caso di ChatGPT – che tra il 20 e il 21 febbraio sembra aver dato per qualche ora risposte incoerenti e su cui OpenAI ha pubblicato un “incident report” – anche Gemini, il modello di IA di Google, è finito al centro delle cronache: secondo quanto riportato da diversi media, tra cui il Washington Post e il New York Times, Gemini avrebbe generato immagini di persone storicamente inaccurate. E la stessa Google ha comunicato di esser al lavoro per risolvere il problema e di aver temporaneamente disabilitato la possibilità di generare immagini raffiguranti persone in attesa del rilascio di una versione aggiornata. Un evento, quest’ultimo, che secondo il quotidiano newyorkese avrebbe amplificato le preoccupazioni sulla possibilità che l’intelligenza artificiale possa contribuire alla già vasta quantità di misinformazione online.
Cosa è successo con Gemini
La decisione di Google è arrivata – secondo quanto riporta l’ANSA – due giorni dopo che un utente su X ha pubblicato quelli che sarebbero stati i risultati prodotti da Gemini alla richiesta di “generare un’immagine di un soldato tedesco del 1943”. L’intelligenza artificiale avrebbe generato quattro immagini di soldati: una di carnagione bianca, una nera e due erano donne asiatiche. In un altro caso l’ingegnere Frank J. Fleming ha raccontato la sua esperienza: ha chiesto l’immagine generica di un Papa, e Gemini avrebbe prodotto un pontefice nero e una donna asiatica in abiti ecclesiastici. Google si è comunque detta “a conoscenza del fatto che Gemini proponga inaccuratezze nella generazione di alcune immagini storiche”, e che sebbene sia “generalmente una buona cosa” che Gemini “generi immagini con un’ampia diversità di persone” in questo contesto stia “fallendo l’obiettivo richiesto”.
Problemi anche per ChatGPT
Come detto, però, Gemini non è stata l’unica intelligenza artificiale a registrare problemi negli ultimi giorni: tra il 20 e il 21 febbraio molti utenti di ChatGPT hanno segnalato come il chatbot di OpenAI offrisse risposte incoerenti, mescolando inglese e spagnolo, oppure contenenti parole prive di significato. Secondo la società le anomalie sarebbero state causate da un intervento di “ottimizzazione” della piattaforma, e un successivo aggiornamento ha risolto la questione. Nel mentre OpenAI aveva pubblicato un “incident report” sul proprio sito, in cui aveva riconosciuto l’anomalia e fornito agli utenti aggiornamenti sull’origine del problema e sulle possibili soluzioni.
leggi anche
ChatGpt, utenti segnalano errori nelle risposte del chatbot di OpenAI
Fonte : Sky Tg24