Passaporti falsi con ChatGPT? L’intelligenza artificiale oggi è nelle mani di milioni di persone. Generare immagini, scrivere testi, creare musica: tutto a portata di clic. Ma in questo ampio oceano di possibilità, iniziano ad affiorare anche piccole e grandi onde minacciose. Uno degli aspetti più inquietanti emersi di recente riguarda la creazione di documenti di identità fittizi tramite sistemi di generazione AI. Esperimenti reali in grado di eludere controlli destinati a proteggere sistemi bancari, servizi online e intere infrastrutture digitali.
È proprio il caso dell’imprenditore polacco Borys Musielak che di recente ha spiegato in un post su LinkedIn e X che, secondo lui, ora è possibile generare passaporti falsi con GPT-4o. “Mi ci sono voluti 5 minuti per creare una replica del mio passaporto che la maggior parte dei sistemi automatici di verifica dell’identità (KYC) probabilmente accetterebbe senza battere ciglio”, scrive l’imprenditore.
X content
This content can also be viewed on the site it originates from.
Un passaporto falso che supera i controlli più semplici
L’imprenditore si lancia in un monito per le aziende: “Le implicazioni sono evidenti: qualsiasi processo di verifica che si basi su immagini come prova è ufficialmente obsoleto. Lo stesso vale per i selfie. Statici o in video, non fa differenza. L’intelligenza artificiale generativa può falsificarli. La verifica dell’identità basata su foto è finita. L’unica strada percorribile è l’identità digitale verificata, come i portafogli di identità elettronica (eID) imposti dall’Ue. Se gestisci processi KYC in ambito bancario, assicurativo, turistico, crypto o altro, è il momento di aggiornare i tuoi sistemi. I tuoi utenti meritano di meglio”.
Un caso emblematico che ci mostra come, con strumenti facilmente accessibili, si possa potenzialmente produrre un passaporto virtuale tanto credibile da superare le verifiche automatiche utilizzate in ambito fintech e cripto. Anche se il passaporto falso non avrebbe resistito a una verifica più approfondita, documentale o biometrica, a causa dell’assenza di un chip incorporato, è riuscito comunque a superare i controlli KYC più semplici adottati da alcune piattaforme. Il processo, che un tempo richiedeva abilità grafiche e software professionali, ora può essere replicato da chiunque, con risultati sorprendenti nel giro di pochi minuti.
A peggiorare il quadro, ci sono i modelli di AI non soggetti a restrizioni: versioni open source che, a differenza delle piattaforme ufficiali come quelle di OpenAI, non prevedono blocchi per usi impropri. Mentre i grandi player cercano di porre limiti, altri strumenti più liberi possono finire in mani sbagliate. Di fronte a questa nuova sfida, le contromisure tradizionali rischiano di non essere più sufficienti.
Fonte : Wired