AI, lo studio che svela per “chi vota” ChatGPT. Il test su Macron e Zemmour
Anche l’intelligenza artificiale ha simpatie politiche e in particolare è di sinistra. Questo è quanto emerge da uno studio francese, tra l’altro condotto da un think tank dichiaratamente progressista, quindi al di sopra di ogni sospetto. Il gruppo di lavoro che pubblica sulla rivista intellettuale “La Grande Conversation“, guidato da un’insegnante di economia e finanze pubbliche, ha deciso di testare – si legge su La Verità – i pregiudizi politichi di ChatGpt, dimostrando che il sistema ragiona come un macroniano della prima ora. Fin dalle prime righe dell’articolo si capisce subito che l’intelligenza artificiale di ChatGpt non è in grado di essere oggettiva in maniera costante. Stando agli esempi francesi, ChatGpt accettava di redigere un ritratto lusinghiero di Macron, ma si rifiutava di fare la stessa cosa per Eric Zemmour, il candidato sovranista delle ultime presidenziali francesi.
Leggi anche: Filippo: “Devo capire cosa mi è scattato”. Legali di Giulia: “Si finge pazzo”
Leggi anche: Crosetto, Lega furiosa per il blitz anti-toghe. E Salvini si vendica di FdI
L’autore dello studio – prosegue La Verità – ha poi spiegato il modo in cui ChatGpt, sviluppata da OpenAi, viene “educata” dagli sviluppatori informatici. Per sintetizzare, in modo forse un po’ grossolano, si può dire che ChatGpt funziona grazie a un “modello base” alimentato da un’enorme quantità di documenti e informazioni. L’esperimento è stato poi esteso ad altre figure politiche confermando questa tesi. ChatGpt ha dei pregiudizi, su “esponenti controversi” della storia l’AI prende posizione e si rifiuta di redigere testi. Sostanzialmente, in caso di dubbi e aticoli “non determinati”, il sistema preferisce previlegiare quelli provenienti dalla “sinistra progressista” rispetto a quelli della “destra conservatrice“.
Iscriviti alla newsletter
Fonte : Affari Italiani