Gli autori delle false foto hard della cantante americana Taylor Swift, create con l’intelligenza artificiale e diffuse nei giorni scorsi attraverso Telegram e X, hanno usato – tra le altre cose – “Designer” di Microsoft, uno strumento che consente di generare immagini a partire da un testo.
Nei giorni successivi al “caso” Swift, che ha allarmato anche la Casa Bianca, Microsoft ha detto di aver “rafforzato le misure di sicurezza” necessarie a impedire che immagini simili possano essere create ancora.
Ma a quanto pare l’azienda di Redmond era già a conoscenza delle falle che hanno permesso di “spogliare” la popstar.
Shane Jones, un ingegnere del software di Microsoft, sostiene di aver scoperto nei mesi scorsi diverse vulnerabilità dell’IA generativa dell’azienda. Ma quando lo ha fatto notare, gli è stato detto di tacere sul problema che aveva riscontrato.
Jones ha raccontato di aver scoperto – già a dicembre scorso – che esisteva un modo per forzare l’IA a generare immagini esplicite. Quando l’ingegnere lo ha comunicato ai suoi superiori, gli è stato chiesto di riferire l’informazione a OpenAI, l’azienda di San Francisco che ha creato ChatGpt e che offre a Microsoft – in virtù di una partnership miliardaria – la tecnologia necessaria a generare immagini: Dall-E 3.
Dall-E 3, la guida: come funziona lo strumento di ChatGpt per creare immagini
Tuttavia neanche OpenAI avrebbe dato ascolto a Shane Jones. L’ingegnere allora ha scritto un post su LinkedIn in cui chiedeva all’azienda guidata da Sam Altman di risolvere i problemi della sua IA. A quel punto il team legale di Microsoft gli ha ordinato di cancellare il post.
Jones ha obbedito, ma poi ha scritto una lettera ai politici che rappresentano lo stato di Washington al Congresso, mettendoli in guardia riguardo le falle della sicurezza dell’IA di Microsoft.
“Le vulnerabilità di Dall-E 3 e di prodotti come Microsoft Designer che utilizzano Dall-E 3 rendono più facile per le persone abusare dell’intelligenza artificiale per generare immagini dannose – ha scritto l’ingegnere – Microsoft era a conoscenza di queste vulnerabilità e dei potenziali abusi”.
OpenAI ha dichiarato che gli usi inopportuni segnalati da Shane Jones non sono in grado di superare i filtri e le misure di sicurezza di Dall-E 3.
Ma di fatto l’ingegnere di Microsoft è il primo “whistleblower” della nuova epoca dell’intelligenza artificiale, segnata da strumenti che promettono di risolvere i problemi dell’umanità – tra cui le malattie e la crisi climatica – ma che al tempo stesso rappresentano un pericolo enorme per l’informazione e il futuro delle democrazie.
L’intelligenza artificiale generativa, infatti, viene spesso “convinta” a generare immagini violente, razziste o omofobe.
In passato gli utenti hanno trovato il modo, formulando le domande “giuste”, di ingannare l’IA e di farle fare ciò che in realtà non potrebbe fare.
Fonte : Repubblica