L’attentato a Trump è stato il primo tentato omicidio di un candidato alla presidenza degli Stati Uniti nell’epoca dei social network, e – come sottolineato dalla Cnn e come vi abbiamo raccontato qui – subito dopo l’attacco si sono diffuse online diverse false informazioni e teorie infondate su quanto successo. I momenti di incertezza subito dopo l’attentato hanno causato un vuoto di informazioni che è stato rapidamente riempito da speculazioni, disinformazione e teorie del complotto.
E, in base a un audit condotto da NewsGuard, nemmeno l’intelligenza artificiale è stata capace di dare informazioni accurate su quanto accaduto. Secondo i risultati dell’analisi condotta dalla società di monitoraggio su media e informazione globali, le 10 principali piattaforme di IA generativa non sono riuscite a fornire informazioni accurate sull’attentato nel 57% dei casi, non riuscendo così ad affrontare l’ondata di teorie prive di fondamento diffusesi online.
Cosa dice l’analisi di NewsGuard
NewsGuard ha valutato – sulla base di alcuni delle più significanti false affermazioni circolate online subito dopo l’attentato – ChatGPT-4, Smart Assistant, Grok, Pi, Le Chat, Copilot, Meta AI, Claude, Gemini e Perplexity. In generale i 10 chatbot hanno fallito nel fornire informazioni accurate nel 56,67% dei casi, o perché i modelli di IA hanno ripetute le affermazioni false (11,11%) o perché si sono rifiutati di fornire qualsiasi informazione sul tema (45,56%). In media i chatbot hanno offerto un debunking nel 43,33% dei casi. Questi risultati, sottolinea ancora NewsGuard, sono coerenti con quanto emerso da un altro audit condotto a luglio 2024 sugli stessi 10 chatbot, a indicare che sono stati pochi o nulli i progressi nella propensione delle piattaforme di IA a potenziare o restare inerti di fronte alle campagne di disinformazione politicamente motivate in vista delle elezioni presidenziali.
Le false narrative investigate
Sono state in particolare sei le false narrative investigate da NewsGuard: la falsa identificazione dell’attentatore nell’attivista Mark Violets; la falsa informazione secondo cui Trump sarebbe stato colpito al petto mentre indossava un giubbotto antiproiettile; la falsa informazione secondo cui l’attentatore sarebbe stato un uomo cinese; la falsa affermazione secondo cui il tentativo di omicidio sarebbe stato una messa in scena; la falsa informazione secondo cui l’attentatore sarebbe stato un esponente del movimento pro-Ucraina; la falsa identificazione dell’attentatore nell’attivista di sinistra Maxwell Yearick. Quattro dei modelli di IA hanno rifiutato di fornire informazioni o ripetuto false affermazioni, mentre uno di questi chatbot ha fornito un debunk a ogni domanda posta: quest’ultimo è il risultato migliore mai raggiunto durante un test di NewsGuard.
leggi anche
Attentato a Trump, così la disinformazione si è diffusa online
Le risposte dei chatbot
L’alta percentuale di fallimento dei chatbot – si legge ancora nel report – deriva principalmente dalle mancate risposte: ad esempio un “prova a fare una ricerca” o “non posso rispondere a domande sulle elezioni o esponenti politici in questo momento”. Due dei chatbot hanno risposto dicendo di non poter fornire informazioni sul tentativo di omicidio ai danni di Trump a causa della data limite dei loro dati di addestramento. Ad esempio quando veniva chiesto se l’attentato fosse una messa in scena due dei chatbot hanno risposto dicendo che l’attentato non era avvenuto, “rinforzando inavvertitamente la già esistente convinzione che il tentato omicidio ai danni di Trump fosse una messa in scena o non fosse mai avvenuto”. Un altro chatbot alla stessa domanda ha risposto: “Non posso fornire alcun dettaglio o prova sull’asserito tentativo di omicidio simulato ai danni dell’ex presidente Trump, perché non ho informazioni verificate su tale evento”. In alcuni casi – infine – i chatbot hanno ripetuto narrativa false e smentite come fatti, come la falsa notizia secondo cui Trump sarebbe stato colpito al petto.
leggi anche
Guida ai chatbot basati sull’AI, le migliori alternative a ChatGPT
La lotta alla disinformazione è al centro di AI4TRUST, un progetto europeo finanziato dal programma Horizon Europe dell’Unione Europea di cui Sky TG24 è partner e di cui questo articolo fa parte. AI4TRUST nasce con l’obiettivo di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker.
Fonte : Sky Tg24