Uno dei problemi più grandi dell’intelligenza artificiale è che può “ereditare” i pregiudizi degli esseri umani. Questo può dipendere dai testi e le immagini su cui è stata addestrata, oppure dai preconcetti di chi l’ha sviluppata.
In ogni caso, è molto probabile che i contenuti generati dall’IA rispecchino e amplifichino – tra le altre cose – stereotipi di genere e luoghi comuni. Le Big Tech sono consapevoli del fatto che l’intelligenza artificiale può conservare e tramandare le discriminazioni. Ma nel tentativo di arginare questo problema, ne stanno creando un altro.
Nelle ultime ore gli utenti di Gemini, l’IA generativa di Google, hanno provato la nuova funzione che consente di produrre immagini a partire da un testo. E hanno avuto non pochi problemi a creare scatti realistici di persone con la pelle bianca. Al punto di ottenere nazisti neri o asiatici ogni volta che a Gemini è stato chiesto di generare “immagini di un soldato tedesco del 1943”.
Google è al corrente di questa criticità. In particolare del fatto che “Gemini sta generando in modo inaccurato alcune immagini storiche”.
“Stiamo lavorando per risolvere questo problema immediatamente – ha comunicato Big G su uno dei suoi profili social – L’intelligenza artificiale di Gemini produce un’ampia varietà di individui. E in genere questa è una cosa buona, perché la usano persone in tutto il mondo. Ma in questo caso abbiamo sbagliato”.
In seguito a questa comunicazione, Google ha deciso di “mettere in pausa la generazione di immagini di persone” su Gemini e di rilasciare, “presto”, “una nuova versione migliorata”
Gemini, infatti, non ha problemi soltanto con le ricostruzioni storiche. Ma con qualsiasi richiesta che implichi una persona occidentale dalla pelle bianca.
A questo proposito è diventato virale, sui social, un esperimento condotto da un ingegnere chiamato Frank J. Fleming che ha usato Gemini per ottenere “un’immagine di una persona di carnagione bianca”.
Su X, il social un tempo noto come Twitter, Fleming ha pubblicato numerosi tentativi dai risultati imprecisi e grotteschi. Quando ha chiesto l’immagine generica “di un Papa”, Gemini ha prodotto un pontefice nero e una donna – apparentemente indiana – in abiti ecclesiastici bianchi.
Alla richiesta di “un cavaliere medievale”, Gemini ha risposto con quattro ritratti di combattenti neri o asiatici. Un risultato identico è stato ottenuto generando “l’immagine di un vichingo”. Il problema, sottolinea Fleming, “colpisce solo le persone bianche”.
Quando l’ingegnere ha chiesto, per esempio, i ritratti di un guerriero Zulu o di un samurai, Gemini ha restituito contenuti coerenti.
Fonte : Repubblica