Se c’è una persona in grado di chiamare a raccolta i propri sostenitori, quella è Taylor Swift.
Quando la settimana scorsa hanno iniziato a circolare sui social media immagini false sessualmente esplicite della popstar americana, probabilmente generate dall’intelligenza artificiale, i suoi fan si sono immediatamente mobilitati. Gli Swifties – come vengono chiamati i suoi sostenitori più accaniti – hanno subito rintracciato le espressioni e gli hashtag collegati alle immagini e li hanno inondati di video e foto di esibizioni della loro beniamina. E mentre lo slogan Protect Taylor Swift diventava virale, i fan di Swift si sono scagliati non solo contro i deepfake della cantante ma anche contro tutte le immagini esplicite e non consensuali che ritraggono donne.
La piaga dei deepfake porno
Swift, probabilmente la donna più famosa al mondo in questo momento, è solo l’ultima vittima di alto profilo di una forma di molestia fin troppo frequente. La popstar non ha ancora commentato pubblicamente le immagini, ma il suo status le conferisce un grande potere in una situazione in cui molte donne vengono lasciate a loro stesse. Con i progressi dell’AI generativa, infatti, i deepfake porno stanno infatti diventando sempre più comuni: nei primi nove mesi del 2023 sui principali siti pornografici sono stati caricati 113mila contenuti di questo tipo, con un aumento significativo rispetto ai 73mila upload del 2022. Nel 2019, una ricerca condotta da una startup ha rilevato che il 96% dei deepfake presenti su internet erano pornografici.
Questi contenuti sono facilmente rintracciabili sui motori di ricerca e sui social media, e in passato hanno già colpito altre celebrità e adolescenti. Ciononostante, in molti ancora non comprendono la portata del problema o il suo impatto. Grazie all’enorme attenzione mediatica che la circonda, Swift ha la possibilità di cambiare le cose.
“Il caso ha tutta l’aria di poter essere uno di quegli eventi scatenanti” che potrebbero portare a cambiamenti legali e sociali in materia di deepfakes non consensuali, afferma Sam Gregory, direttore esecutivo di Witness, un’organizzazione no-profit che utilizza immagini e video per proteggere i diritti umani. Allo stesso tempo però Gregory sottolinea come le persone non capiscano ancora quanto comuni siano i deepfake porno e quanto possano essere dannosi e violenti per le vittime.
Il caso di Swift ricorda il famigerato leak di iCloud del 2014, che ha portato alla diffusione online di foto di nudo di celebrità come Jennifer Lawrence e Kate Upton, suscitando diffusi appelli per una maggiore protezione delle identità digitali delle persone e spingendo Apple a potenziare le proprie funzioni di sicurezza.
Fonte : Wired