Attiva le notifiche per ricevere gli aggiornamenti su
No Taylor Swift non ha girato un video porno e nemmeno posato nuda. Ci sono le immagini, è vero, ma sono solo l’ultima deriva della tecnologia deepfake. La prima foto viene caricata su Telegram. Parte l’effetto domino, le immagini fake rimbalzano sui social, e si diffondono nonostante gli sforzi delle piattaforme per rimuoverle. Una di queste immagini, condivisa da un utente su X (fu Twitter), è stata vista 47 milioni di volte, prima che l’account venisse sospeso. Reality Defender, società di sicurezza informatica ha spiegato che le foto sono state create utilizzando l’intelligenza artificiale. “La pornografia non consensuale di vario genere è sempre stata un’oscura corrente sotterranea di Internet”, ha spiegato al New York Times Oren Etzioni, professore di informatica all’Università di Washington. “Ora si tratta di un nuovo ceppo particolarmente nocivo. Vedremo uno tsunami di queste immagini esplicite generate dall’intelligenza artificiale. È una corsa agli armamenti e sembra che ogni volta che qualcuno erige un guardrail, qualcun altro trova il modo di effettuare il jailbreak”.
E infatti il caso Swift non è isolato. Anzi. FaceMega, un’app che sostituisce facce e corpi utilizzando l’intelligenza artificiale, aveva lanciato a marzo una campagna pubblicitaria provocatoria. Aveva caricato 127 video di Emma Watson e 74 di Scarlett Johansson in atteggiamenti provocatori sui social. Era anche apparso su Reddit un porno deepfake di Michelle Obama, che mostrava l’ex first lady in una camera a luci rosse. Yu Chunju è un’artista del Guandong che mostra nei suoi lavori come il deepfake alimenti la disparità di genere, ha spiegato a Fanpage.it: “Il Deepfake è diventata una tecnologia per distruggere le donne, soprattutto nel porno. Ci sono moltissimi siti che sostituiscono i volti delle persone sui corpi di pornostar, è umiliante e mortificante. Non ci sono leggi per proteggere le persone, e l’impatto negativo sulla società è enorme”.
L’appello dei politici contro i deepfake
Secondo il sito 404 Media, le immagini sono state caricate per la prima volta su Telegram e poi ricondivise su ogni social. Il deputato Joe Morelle, democratico di New York che nel 2023 aveva presentato un disegno di legge per rendere la condivisione dei porno deepfake un crimine federale, ha detto su X che la diffusione è “spaventosa e succede alle donne ovunque, ogni giorno.” E infatti la lista delle vittime è lunga.
Leggi anche
L’intelligenza artificiale svela chi sarà il vincitore di Sanremo 2024: la classifica completa
“Ho più volte avvertito che l’intelligenza artificiale potrebbe essere utilizzata per generare immagini intime non consensuali“, ha aggiunto il senatore Mark Warner, presidente della Senate Intelligence Committee: “Questa è una situazione deplorevole”. La deputata Yvette D. Clarke, democratica di New York, ha sottolineato che i progressi nell’intelligenza artificiale hanno reso la creazione di deepfake più semplice ed economica: “Quello che è successo a Taylor Swift non è una novità”.
La risposta di X
Dopo le critiche mosse dai fan di Swift, un rappresentante di X in una nota ha dichiarato: “I nostri team stanno rimuovendo attivamente tutte le immagini identificate e adottando le azioni appropriate contro gli account responsabili della loro pubblicazione”. Ha poi aggiunto “Stiamo monitorando attentamente la situazione per garantire che eventuali ulteriori violazioni vengano immediatamente affrontate e che il contenuto venga rimosso”.
Dopo l’arrivo di Elon Musk X si è trasformato in una terra selvaggia, il miliardario infatti ha licenziato buona parte dell‘area moderazione, per questo ora è ancora più difficile setacciare la piattaforma ed eliminare i contenuti violenti e offensivi. Molti inserzionisti hanno deciso di abbandonare X dopo aver visto post razzisticomparire accanto agli spazi pubblicitari che avevano acquistato sul social.
Fonte : Fanpage