Come altre importanti aziende tecnologiche, anche Meta ha passato l’ultimo anno a promettere di accelerare la diffusione dell’intelligenza artificiale generativa. Oggi il colosso ha implicitamente riconosciuto di doversi occupare anche dei rischi della tecnologia, annunciando una nuova politica per l’etichettatura delle immagini generate dall’AI e pubblicate su Facebook, Instagram e Threads, che prevede l’inserimento di avvertenze per segnalare agli utenti l’origine dei contenuti.
La nuova politica di Meta
Ma è probabile che gran parte delle immagini AI che potrebbero apparire sulle piattaforme di Meta non sarà coperta dalle nuove regole, che presentano molte lacune potenzialmente sfruttabili da attori malintenzionati . “È un passo nella giusta direzione, ma presenta delle sfide“, spiega Sam Gregory, responsabile di programma dell’organizzazione no-profit Witness, che aiuta le persone a usare la tecnologia per la difesa dei diritti umani.
Meta etichetta già le immagini generate con i propri strumenti di intelligenza artificiale, usando il tag “Imagined with AI” (“immaginato con l’ausilio dell’AI”) e cercando il watermark – ovvero la filigrana digitale – che i suoi algoritmi incorporano nei loro contenuti. Ora la società di Mark Zuckerberg afferma che nei prossimi mesi farà lo stesso anche con le immagini realizzate dagli strumenti di aziende che inseriscono a loro volta watermark.
La nuova pratica dovrebbe ridurre il rischio di disinformazione causata dalle immagini generate dall’AI e spacciate per foto reali. Tuttavia, sebbene Meta abbia dichiarato di essere al lavoro per supportare i metodi attualmente in fase di sviluppo presso aziende come Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, la tecnologia non è ancora diffusa su larga scala. Inoltre, sul mercato sono disponibili molti strumenti di generazione di immagini AI che non inseriscono un watermark nei loro risultati, e la tecnologia sta diventando sempre più facile da usare e modificare. “L’unico modo in cui un sistema del genere sarà efficace è che veda la partecipazione di un ampio gruppo di strumenti e piattaforme generative“, sottolinea Gregory.
E anche nel caso in cui le filigrane digitali dovessero ottenere un ampio sostegno, non è chiaro quanto sia solida la protezione garantita dal sistema. Al momento non esiste uno standard universalmente diffuso (nonostante la Coalition for content provenance and authenticity, o C2PA, un’iniziativa fondata da Adobe, aiuti le aziende ad allineare il loro lavoro su questo fronte) e la tecnologia sviluppata finora non è infallibile. In uno studio pubblicato l’anno scorso, un team di ricercatori ha scoperto che era possibile rimuovere i watermark o aggiungerli a immagini che non erano state generate dall’intelligenza artificiale per poi spacciarle come tali.
I limiti dell’iniziativa
Hany Farid, professore della School of Information presso l’Università della California – Berkeley e consulente dell’iniziativa C2PA, sostiene che qualsiasi malintenzionato interessato a sfruttare l’AI probabilmente si rivolgerà a strumenti che non inseriscono watermark nei loro risultati o ne tradiscono la vera natura. I responsabili del deepfake del presidente americano Biden che ha preso di mira alcuni elettori del New Hampshire il mese scorso, per esempio, non avevano aggiunto alcun elemento che rivelasse l’origine del contenuto.
Fonte : Wired