Su Facebook e Instagram arrivano le etichette per le immagini create dall’intelligenza artificiale

Etichette per distinguere le immagini generate da una IA che vengono postate su Facebook, Instagram e pure su Threads: a questo sta lavorando Meta, la compagnia che controlla 3 fra i social network più diffusi.

Secondo quanto spiegato, la novità dovrebbe essere visibile “nel corso dei prossimi mesi”, quasi certamente “in ogni lingua in cui le varie app sono disponibili”. Non solo: Nick Clegg, che in Meta ricopre il ruolo di presidente per gli Affari globali, ha annunciato che la compagnia sta anche lavorando con altre aziende del settore per arrivare a uno standard comune che permetta di individuare questo tipo di immagini.

Come si riconosce un’immagine fatta con l’IA

Il punto sta proprio qui, nel riuscire a capire che cosa è reale e che cosa è artificiale: Meta già etichetta come Create con l’IA le immagini generate con la sua intelligenza artificiale (che si chiama Meta AI), così come fanno molti altri, da Adobe per quelle create dentro a Photoshop, a OpenAI per quelle fatte con Dall-E3. La difficoltà sta proprio nell’identificare quelle costruite al di fuori dal proprio campo d’azione, ed è una difficoltà ancora più grande per Meta, visto che molta parte delle immagini condivise su Facebook, Instagram e Threads arrivano da fonti esterne.

Per questo, Clegg ha spiegato online (qui) che Meta lavorerà per etichettare “le immagini di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock”, collaborando con loro sulle strategie più efficaci per “l’aggiunta di metadati alle immagini create dai loro strumenti”. Proprio da Google, l’anno scorso è arrivato l’annuncio che etichette del genere sarebbero arrivate su YouTube e su altre sue piattaforme: “Nei prossimi mesi introdurremo etichette che informeranno gli spettatori quando il contenuto che stanno vedendo è generato artificialmente”, ha ribadito di recente il CEO di YouTube, Neal Mohan.

Al momento non ci sono dettagli su quali saranno gli strumenti tecnologici utilizzati per portare a termine questo lavoro, ma l’esperienza insegna che si tratterà probabilmente di software basati su altre intelligenze artificiali: come su Italian Tech abbiamo già spiegato, le IA sono molto brave a riconoscere contenuti creati da altre IA. È una cosa che funziona con le immagini (vengono analizzati i riflessi nelle cornee, i dettagli di mani e piedi, le ombre) ma che si può usare anche con i testi, tant’è che già oggi esistono tool che permettono di verificarne l’autenticità e l’origine umana oppure no (qui un esempio d’uso con le canzoni di Sanremo).

Perché è importante distinguere le immagini fatte con l’IA

La decisione di Meta arriva quest’anno, come ha sottolineato Clegg, perché quest’anno “in tutto il mondo si svolgeranno numerose elezioni importanti” ed è dunque fondamentale distinguere il vero dal falso, anche quando si parla di immagini. Ormai da tempo (almeno 5 anni), l’umanità si sta confrontando con i cosiddetti deepfake, cioè foto, video e audio che sono falsi perfetti costruiti con l’IA e possono ingannare le persone e contribuire alla diffusione di fake news e disinformazione.

Immagini come quella del Papa con il piumino bianco, o di Donald Trump arrestato a New York, sono lì a dimostrare la potenziale pericolosità di questi strumenti. Una pericolosità di cui negli Stati Uniti si è resa conto anche l’amministrazione Biden, che lo scorso ottobre ha firmato un ordine esecutivo per invitare le aziende a darsi da fare per garantire un uso sicuro, consapevole e affidabile delle IA. E una pericolosità di cui sono consci anche i protagonisti del settore, che si sono riuniti nella Coalition for Content Provenance and Authenticity (in sigla, C2PA), proprio per stabilire standard per un utilizzo corretto delle IA. Iniziando appunto dalle immagini.

@capoema

Fonte : Repubblica