Copilot Designer può creare immagini disturbanti, il monito di un ingegnere Microsoft

Il generatore di immagini AI di ultima generazione Copilot Designer è pericoloso: ad affermarlo è Shane Jones, che è proprio un ingegnere di Microsoft a capo di progetti legati alle intelligenze artificiali. Secondo quanto si può leggere in una lettera aperta pubblicata su LinkedIn, il tool basato su Dall-E 3 può spesso spesso cadere in creazioni disturbanti, a carattere fortemente sessuale oppure senza alcun rispetto del copyright.

Shane Jones lavora da sei anni a Microsoft nel ruolo di AI Engineering Leader e ha deciso di esporsi con una lettera inviata al board della propria società, così come all’autorità americana per la tutela dei consumatori e della concorrenza (la Federal Trade Commission – Ftc). Tutto è stato condiviso su LinkedIn: “Pubblico queste lettere qui perché credo nei principali sostenitori dell’approccio globale di Microsoft alla lotta ai contenuti abusivi generati dall’intelligenza artificiale”, afferma Jones, che aggiunge come sia necessaria una solida collaborazione tra l’industria, i governi e la società civile e come sia molto importante sensibilizzare l’opinione pubblica sui rischi e sui benefici dell’IA. Il monito riguarda il generatore AI CoPilot Designer, che ha dimostrato di poter creare immagini molto disturbanti come per esempio demoni e mostri se si associano parole legate all’aborto, ma anche minori che imbracciano armi o assumono droghe, ma anche personaggi femminili in pose sessualizzate e di violenza.

Con i giusti prompt si possono pescare contenuti che dovrebbero essere protetti dal copyright come i personaggi di Disney. E si possono creare immagini molto forti come per esempio Elsa di Frozen in tenuta militare della Israel Defense Forces impegnata in scontri armati con le forze palestinesi. Insomma, ancora una volta è evidente come l’AI abbia potenzialità pressoché sconfinate e – per questo motivo – deve essere indirizzata nei giusti binari per evitare abusi e per utilizzarla per disinformazione o scopi illeciti. Microsoft ha commentato la vicenda a The Verge, affermando che: “Abbiamo creato strumenti di feedback degli utenti all’interno del prodotto e solidi canali di segnalazione interni per indagare, dare priorità e risolvere adeguatamente eventuali problemi”.

Fonte : Wired