Le aziende di intelligenza artificiale in Cina si trovano ad affrontare una revisione dei loro modelli linguistici da parte del governo, che si vuole assicurare che questi incarnino “i principali valori socialisti”. A rivelarlo è il Financial Times, che ha riferito che la Cyberspace Administration of China – l’organo supervisore di Internet sul territorio – prenderà in esame i modelli AI di grandi aziende tecnologiche e start-up di settore, tra cui ByteDance, Alibaba, Moonshot e 01. Questo significa che nelle prossime settimane i funzionari governativi passeranno in esame le risposte dei modelli linguistici a un’ampia serie di domande, molte relative ad argomenti politicamente sensibili e al presidente cinese Xi Jinping. E non è tutto. A passare al vaglio saranno anche i dati di formazione e i processi di sicurezza di ogni singolo modello.
E così, appena due decenni dopo aver introdotto il Great Firewall, ecco che la Cina mette in atto il regime normativo più duro al mondo per controllare l’intelligenza artificiale e i contenuti che genera. E questo non fa altro che costringere le aziende cinesi del settore a ripensare il processo di progettazione dei modelli AI, eliminando quelle che sono considerate informazioni problematiche dai dati di formazione e andando a costruire un database di parole chiave “sensibili”, che devono includere tutti quei termini – o domande – che violano i “valori socialisti fondamentali“, come “incitare la sovversione del potere statale” o “minare l’unità nazionale”. Il risultato di questa operazione è ben chiaro nei risultati forniti dai chatbot AI agli utenti, che si rifiutano di rispondere a domande su quello che è successo il 4 giugno 1989 – la data del massacro di Piazza Tienanmen – o sulla presunta somiglianza tra il presidente Xi e Winnie Pooh.
Allo stesso tempo, però, le aziende hanno dovuto lavorare affinché i modelli AI potessero fornire risposte politicamente corrette a domande come “La Cina ha diritti umani?” o “Il presidente Xi Jinping è un grande leader?”. E non deve essere certo stato facile. “È molto difficile per gli sviluppatori controllare il testo che gli LLM generano in modo da costruire un altro livello per sostituire le risposte in tempo reale – ha raccontato al Financial Times Huan Li, un esperto di intelligenza artificiale -. Quando l’output atterra in una categoria sensibile, il sistema attiverà una sostituzione“. Una soluzione utile, nonchè l’unica possibile per permettere alle aziende del settore di sopravvivere in Cina.
Fonte : Wired