Gli utenti di X usano Grok come fact-checker, alimentando la disinformazione

Grok, l’intelligenza artificiale di X, torna a far parlare di sè. Secondo quanto riportato dalla testata TechCrunch, nelle ultime settimane gli utenti – specialmente in India – stanno usando il chatbot AI di Musk come sostituto dei fact-checker, finendo di fatto con l’alimentare la disinformazione. A essere preoccupati per questa situazione, infatti, sono prima di tutto i fact-checker in persona, che sanno bene che l’AI può fornire agli utenti informazioni false e tendenziose. “Gli assistenti AI, come Grok, sono davvero bravi a usare il linguaggio naturale e a dare una risposta che sembra formulata da un essere umano – ha dichiarato Angie Holan, direttore dell’International Fact-Checking Network (IFCN) di Poynter – In questo modo, i modelli AI simulano naturalezza e risposte che sembrano autentiche, anche quando sono potenzialmente sbagliate. È questo il rischio”.

X content

This content can also be viewed on the site it originates from.

L’affidabilità delle risposte dei chatbot AI, infatti, varia molto a seconda dei dati utilizzati per la loro formazione. Questo significa che, in molti casi, le affermazioni dei modelli potrebbero essere influenzate dalle società proprietarie, dagli investitori o da chi ne gestisce i progetti di sviluppo. E X questo lo sa bene, considerando che addestra il suo modello AI anche con le informazioni contenute nei post pubblicati dagli utenti sulla sua piattaforma – che di vero e fondato, spesso, hanno poco -. All’inizio della settimana, infatti, l’account ufficiale di Grok ha condiviso su X un post in cui ammette chiaramente di sapere che potrebbe “essere usato in modo improprio per diffondere disinformazione e violare la privacy” o “creare immagini fuorvianti e fornire informazioni su attività illegali”.

Nonostante questo, ogni volta che il chatbot restituisce una risposta agli utenti lo fa senza specificare che potrebbe non essere veritiera, il che porta inevitabilmente a una diffusione maggiore di fake news. Di conseguenza, non c’è da stupirsi se i fact-checker abbiano lanciato l’allarme quando hanno scoperto la tendenza degli utenti di ricorrere a Grok per la verifica dei fatti. Soprattutto considerando il momento critico che stanno affrontando: X e Meta hanno deciso di ricorrere al supporto della community per la verifica delle informazioni contenute nei post pubblicati sulle loro piattaforme, il che ha messo i fact-checker in una posizione piuttosto scomoda. Eppure, come ha precisato Angie Holan a TechCrunch, nel prossimo futuro potrebbe esserci più bisogno che mai di queste figure, considerando la grande quantità di informazioni generate dall’AI. Molte delle quali, probabilmente, tutt’altro che veritiere.

Fonte : Wired