Un malfunzionamento nel software di dettatura dell’iPhone ha fatto sì che la parola “racist” (“razzista”) venisse erroneamente trascritta come “Trump“.
L’errore, riscontrato anche con altri termini come “rampant” (“sfrenato”) e “rampage” (“furioso”), è stato segnalato da numerosi utenti e ha rapidamente attirato l’attenzione sui social.
Un video virale su TikTok mostra chiaramente il problema: quando un utente detta la parola “racist”, l’intelligenza artificiale di Apple la trascrive inizialmente come “Trump”, per poi correggersi un istante dopo e visualizzare il termine corretto.
Apple ha riconosciuto il problema e ha attribuito la causa dell’incidente a somiglianze fonetiche nel modello di riconoscimento vocale basato su intelligenza artificiale. L’azienda ha inoltre annunciato il rilascio di un aggiornamento per correggere l’anomalia.
John Burkey, fondatore di Wonderrush.ai ed ex membro del team di Siri, con cui è ancora in contatto, ha detto al New York Times che il problema sembra essere comparso dopo un aggiornamento ai server di Apple.
Per Burkey è improbabile che il problema sia dovuto ai dati su cui è stata addestrata l’intelligenza artificiale di Apple.
“Questo ha tutta l’aria di essere uno scherzo ben orchestrato – ha detto l’informatico al Nyt -. La vera domanda è: qualcuno ha manipolato i dati o ha inserito qualcosa nel codice?”
A novembre del 2018 Siri, l’assistente vocale di Apple, si è ritrovata al centro di una polemica politica quando, in risposta alla domanda “Chi è Donald Trump?“, ha mostrato un’immagine del tycoon nudo.
In quell’occasione l’incidente è stato causato da una modifica apportata in modo provocatorio su Wikipedia, dove alcuni utenti avevano sostituito l’immagine del profilo di Trump con un contenuto esplicito.
Poiché in quel periodo Siri si affidava sulla popolare enciclopedia online per reperire informazioni, l’immagine inappropriata di Trump è stata temporaneamente mostrata agli utenti.
Fonte : Repubblica