Per mesi abbiamo discusso dei pericoli legati all’intelligenza artificiale capace di generare immagini (e ora anche video) a partire da un testo.
Per mesi abbiamo scritto che chiunque, oggi, può creare deepfake in pochi istanti.
Per mesi abbiamo teorizzato scenari catastrofici in vista delle prossime presidenziali Usa.
Per mesi ci siamo preparati all’Armageddon che rischia di abbattersi sulla società: un flusso di immagini false, create con un prompt, che possono veicolare intenzionalmente contenuti diffamatori, violenti, omofobi e razzisti.
E poi, cosa succede?
Succede che una delle foto più attese degli ultimi tempi – quella che avrebbe dovuto ritrarre Kate Middleton in salute dopo l’intervento all’addome di gennaio scorso – è stata manipolata dalla stessa persona protagonista dello scatto. Al punto di aver costretto l’Associated Press a emanare nei confronti dell’immagine in questione una “kill notification”, vale a dire un invito esplicito a non utilizzare una foto distribuita dall’agenzia perché non si ritiene più “credibile”.
E poi, cos’altro succede?
Succede che la Principessa di Galles in persona confessi di aver alterato lo scatto che la ritrae sorridente insieme ai figli. “Come molti fotografi amatoriali – ha scritto sul social network X – faccio occasionalmente esperimenti di editing”.
Se dobbiamo credere a questa storia, bisogna immaginare Kate Middleton davanti a un computer. Oppure mentre zoomma sul suo smartphone e con qualche tocco sul display apporta delle modifiche che ritiene “trascurabili”. Come quella, per esempio, che ha alterato la manica sinistra della maglia di Charlotte. Sembra uno di quei casi in cui il dito, nel tentativo di scontornare o di uniformare il dettaglio di un’immagine, fa più danni che altro.
In ogni caso – stando ai metadati dell’immagine recuperati dalla BBC – la foto sarebbe stata scattata con una macchina fotografica Canon e poi salvata due volte su Adobe Photoshop, un popolare programma di fotoritocco che, ultimamente, è stato arricchito con funzioni basate su intelligenza artificiale generativa. L’utente, anche il meno esperto, può dare all’IA – con un linguaggio naturale – istruzioni su come modificare un’immagine oppure se eliminare o inserire elementi.
Nella sua analisi dell’immagine di Kate Middleton e i suoi tre figli, il New York Times tra le “prove” evidenti inserisce anche alcune piastrelle del pavimento che si ripeterebbero in modo anomalo. Questo, teoricamente, può essere un effetto generato dall’intelligenza artificiale. Ma il dettaglio “cerchiato” dal Nyt potrebbe rispondere semplicemente a un lavoro approssimativo di un operaio. È ben diverso dai casi in cui l’IA moltiplica le braccia o le gambe.
Anche le dita incrociate del principino Louis, per esempio, sono finite sotto la lente di ingrandimento. Siccome sono incrociate in un modo anomalo, è scattato immediatamente un “allarme rosso” perché il punto debole dell’IA è proprio la generazione di dita e arti.
Molte cose di questa vicenda restano incomprensibili.
Su tutte, la leggerezza di aver condiviso sui social uno scatto manipolato, proprio nell’epoca in cui ogni foto sospetta viene messa in discussione perché c’è il timore che sia stata generata da una IA. È un grave errore alimentare la psicosi da deepfake, perché può portare a teorie complottiste e anche a ipotesi bizzarre, che un utente può condividere sui social con altrettanta leggerezza. Quando Ruby Naldrett ha pubblicato su X la sua analisi dello scatto “reale”, sostenendo che il volto di Kate Midlleton proviene in realtà dalla foto utilizzata per la copertina di Vogue del 2016, non pensava certo che la sua teoria sarebbe stata visualizzata 40 milioni di volte.
Ma almeno *tre cose* sono certe:
La prima è che Kate Middleton ha utilizzato un’intelligenza artificiale. Non si tratta della tecnologia che ci spaventa di più, quella capace di creare foto inedite partendo da zero. È più vicina ai software di fotoritocco professionali presenti sui notebook o un qualsiasi smartphone top di gamma, ed è diventata negli ultimi anni uno strumento di editing estremamente potente e alla portata di tutti. Può fare, in ogni caso, gravi danni.
La seconda è che il livello di allerta nei confronti delle immagini generate – o alterate – attraverso l’IA è altissimo. L’Associated Press ha ritirato la foto di Kate Middleton e dei suoi figli dopo numerose segnalazioni di incongruenze da parte degli utenti sui social. E questo è un bene.
La terza è che l’IA commette ancora degli errori evidenti nel momento in cui viene utilizzata da utenti “amatoriali”. Le “tracce” del suo intervento, se si osserva un’immagine con attenzione, sono ben visibili. E questo ci dà modo di prepararci meglio e in particolare di sviluppare metodi che possano tracciare un’immagine e provare la sua veridicità. Anche questo è un bene.
Fonte : Repubblica