Henry Ajder, esperto di deepfake e fondatore della società di consulenza Latent Space Advisory, sottolinea che anche se la creazione di contenuti dannosi e illegali non fosse consentita dall’azienda, il riferimento alla possibilità di creare immagini “senza restrizioni” e la presenza una sezione “NSFW” potrebbero indicare una “chiara associazione con contenuti intimi senza misure di sicurezza“.
Un fenomeno in preoccupante espansione
Ajder si dice sorpreso che il sito in lingua inglese fosse collegato a un’azienda della Corea del Sud. L’anno scorso il paese asiatico è stato al centro di una “emergenza” di deepfake non consensuali che ha preso di mira le donne, prima di adottare misure per combattere il fenomeno. L’esperto afferma che è necessario esercitare maggiori pressioni su tutte le parti dell’ecosistema che consentono di generare immagini non consensuali utilizzando l’AI. “Più ne vediamo, più la questione viene posta ai legislatori, alle piattaforme tecnologiche, alle società di web hosting, ai fornitori di pagamenti. Tutte le persone che, in un modo o nell’altro, consapevolmente o meno – per lo più inconsapevolmente – stanno facilitando e consentendo che questo accada“.
Fowler afferma che il database conteneva anche file che sembravano includere prompt per l’intelligenza artificiale. Secondo il ricercatore, i dati esposti non includono dati degli utenti, come login o nomi utente. Le schermate delle istruzioni comprendono parole come “ragazza”, riferimenti ad atti sessuali tra membri di una stessa famiglia e descrizioni di atti sessuali tra celebrità.
“Mi sembra che la tecnologia abbia superato le linee guida e i controlli – afferma Fowler –. Da un punto di vista legale, sappiamo tutti che le immagini esplicite di minori sono illegali, ma questo non ha impedito alla tecnologia di generare quelle immagini“.
Negli ultimi due anni, i sistemi di intelligenza artificiale generativa hanno migliorato enormemente la facilità di creazione e modifica delle immagini, portando a un’esplosione di materiale pedopornografico AI. “Le pagine web contenenti materiali relativi ad abusi sessuali su minori generati dall’intelligenza artificiale sono più che quadruplicate dal 2023, e anche il fotorealismo di questi contenuti orribili ha fatto un balzo in avanti in termini di sofisticazione“, afferma Derek Ray-Hill, amministratore delegato ad interim della Internet aatch foundation (Iwf), un’organizzazione no-profit con sede nel Regno Unito che si occupa di pedopornografia online.
L’Iwf ha documentato come oggi i criminali stiano creando sempre più spesso creando materiale pedopornografico con l’AI . “Attualmente è troppo facile per i criminali utilizzare l’intelligenza artificiale per generare e distribuire contenuti sessualmente espliciti di bambini su larga scala e in modo rapido“, commenta Ray-Hill.
Questo articolo è comparso originariamente su Wired US
Fonte : Wired