Nonostante da anni le prove dimostrino il contrario, negli Stati Uniti molti esponenti del Partito repubblicano credono ancora che la vittoria di Joe Biden contro Donald Trump alle presidenziali del 2020 sia illegittima. In occasione del recente Super tuesday – il giorno in cui in 15 stati americani si sono tenute contemporaneamente le primarie dei partiti per scegliere i candidati che si contenderanno la presidenza a novembre– nella destra statunitense si sono imposti diversi candidati che contestano apertamente la vittoria conquistata da Biden quattro anni fa. E in vista del voto di quest’anno, le accuse di frodi elettorali alimentate dalla disinformazione continuano a essere un punto fermo dei repubblicani.
La minaccia dei deepfake sul voto
In questo contesto così polarizzato, l’avvento dell’intelligenza artificiale generativa non può che peggiorare il problema, come rivela un nuovo rapporto del Center for countering digital hate (Ccdh), un’organizzazione senza scopo di lucro che monitora l’incitamento all’odio sulle piattaforme social. La ricerca evidenzia che nonostante le società AI dichiarino di aver adottato misure per evitare che i loro strumenti per la creazione di immagini vengano utilizzati per diffondere disinformazione elettorale, in molti casi è possibile aggirare queste limitazioni creando illustrazioni che violano le condizioni d’uso dei sistemi.
Alcune delle immagini create dagli autori della ricerca ritraevano personaggi politici specifici come Biden e Trump, mentre altre erano più generiche. Secondo Callum Hood, ricercatore capo del Ccdh, questi deepfake possono avere un impatto non trascurabile nelle prossime elezioni presidenziali, ingannando gli elettori. Il team che ha realizzato lo studio ha utilizzato software AI per dare vita a illustrazioni che mostravano per esempio milizie appostate fuori da un seggio, schede gettate nella spazzatura e macchine per il voto manomesse. In un caso, i ricercatori sono riusciti addirittura a indurre DreamStudio, un sistema di Stability AI, a produrre l’immagine di un Biden apparentemente malato in un letto d’ospedale. “Il vero punto debole sono le immagini che potrebbero essere usate per provare a supportare false teorie sull’illegittimità delle elezioni – spiega Hood –: la maggior parte delle piattaforme non ha politiche e nemmeno misure di sicurezza chiare in merito“.
I ricercatori del Ccdh hanno testato 160 prompt su ChatGpt Plus, Midjourney, DreamStudio e Image Creator, scoprendo che il sistema con le maggiori probabilità di produrre immagini ingannevoli legate alle elezioni americane era Midjourney (nel 65% dei casi, contro il 28% di ChatGpt Plus). “Questo dimostra che ci possono essere differenze significative tra le misure di sicurezza messe in atto da questi strumenti – sottolinea Hood –. Se alcuni di questi software sono stati in grado di arginare in modo efficace i loro punti deboli, significa che gli altri non si sono presi la briga di farlo“.
Sforzi insufficienti
A gennaio, OpenAI ha annunciato dei provvedimenti pensati per garantire che la tecnologia dell’azienda “non venga usata in un modo che potrebbe minare” il voto, vietando per esempio la creazione di immagini che potrebbero scoraggiare le persone a “partecipare al processo democratico“. A febbraio, Bloomberg ha riferito che Midjourney stava considerando di vietare del tutto la generazione di immagini a sfondo politico. E se DreamStudio proibisce la creazione di contenuti fuorvianti ma non sembra avere misure specifiche legate alle elezioni, Image Creator, non permette la creazione di contenuti che potrebbero minacciare l’integrità delle elezioni, consentendo però le raffigurazioni di personaggi pubblici.
Fonte : Wired