Rispondete a una chiamata di un vostro parente, che vi spiega affannosamente di essere rimasto coinvolto in un terribile incidente stradale. Per non finire in carcere, ha bisogno che gli inviate immediatamente dei soldi. Riuscite a percepire la sua disperazione mentre vi implora la sua richiesta. Anche se la voce e il numero di telefono sembrano proprio quelli del vostro familiare, avete la sensazione che ci sia qualcosa di strano. Decidete di riagganciare e di richiamarlo subito. Ma a questo punto, la persona all’altro capo del telefono vi dice di non sapere di cosa stiate parlando. Congratulazioni: siete appena scampati a una chiamata truffa realizzata da un’intelligenza artificiale.
Grazie al miglioramento delle capacità degli strumenti di AI generativa, creare audio falsi ma convincenti in grado di replicare la voce delle persone è sempre più facile ed economico. Questi cloni vocali AI sono addestrati su clip audio reali e possono essere regolati in modo da imitare la voce di quasi chiunque. I modelli più recenti sono addirittura in grado di parlare numerose lingue. E OpenAI, la società dietro ChatGPT, ha recentemente annunciato un nuovo modello text-to-speech che potrebbe migliorare ulteriormente la tecnologia della clonazione vocale e renderla ancora più accessibile.
Naturalmente, i malintenzionati stanno sfruttando questi strumenti per ingannare le proprie vittime, convincendole di essere al telefono con una persona cara. Anche se contro la minaccia delle truffe basate sull’intelligenza artificiale non esiste uno strumento paragonabile al nostro Registro delle opposizioni che permette di bloccare gli operatori di telemarketing molesti, ci sono alcuni accorgimenti che possono aiutarci a rimanere al sicuro: ecco i consigli degli esperti che dovete tenere a mente la prossima volta che rispondete a una chiamata urgente e inaspettata.
Non sottovalutate la minaccia degli audio AI
Non c’è solo OpenAI: molte startup tecnologiche stanno lavorando per realizzare audio capaci di replicare quasi alla perfezione il parlato umano, e i progressi nel settore sono sempre più rapidi. “Qualche mese fa vi avremmo dato suggerimenti sulle cose a cui fare attenzione, come le pause o latenze“, spiega Ben Colman, cofondatore e amministratore delegato di Reality Defender. Come molti aspetti dell’intelligenza artificiale generativa, gli audio AI ora sono in grado di imitare in modo più convincente le voci reali. Tutte le strategie di sicurezza che si basano sul rilevamento acustico degli elementi che non tornano durante una telefonata sono quindi superate.
Chiudete la chiamata e richiamate
Come sottolineano gli esperti di sicurezza, fare in modo che una chiamata sembri provenire da un numero di telefono legittimo è relativamente facile. “Molte volte i truffatori falsificano il numero da cui vi chiamano – afferma Michael Jabbara, responsabile globale dei servizi antifrode di Visa –. Dovete essere proattivi”, Che si tratti della vostra banca o di una persona cara, ogni volta che ricevete una chiamata in cui qualcuno vi chiede dei soldi o informazioni personali, chiedete al vostro interlocutore se potete richiamarlo. Cercate il numero online o tra i vostri contatti e fate partire un’altra telefonata, oppure provate a inviare un messaggio su una linea di comunicazione diversa e affidabile, come un servizio di videochat o un’email.
Trovate una parola in codice
Un consiglio molto popolare è quello di trovare una parola di sicurezza da condividere solo con i vostri contatti stretti e che potete chiedere al telefono. “Potete accordarvi su una parola o una frase che i vostri cari possono usare per dimostrare chi sono veramente“, dice Steve Grobman, chief technology officer di McAfee. Anche se richiamare il vostro interlocutore o verificare la sua identità con un altro mezzo di comunicazione rimane il metodo più efficace, una parola di sicurezza può tornare particolarmente utile per i giovani o i parenti anziani che potrebbero essere difficili da contattare in altro modo.
Fate domande personali
Nel caso in cui non abbiate una parola di sicurezza potete comunque capire se vi trovate di fronte a una chiamata reale rivolgendo una domanda personale alla persona con cui state parlando: “Va bene anche una cosa semplice, come una domanda a cui solo il vostro caro saprebbe rispondere – consiglia Grobman –. Per esempio: ‘Ehi, voglio essere sicuro che sei davvero tu. Puoi ricordarmi cosa abbiamo mangiato a cena ieri sera?’” Assicuratevi che la domanda sia abbastanza specifica per fare in modo che un eventuale truffatore non possa indovinare la risposta.
Potrebbe capitare anche a voi
I cloni audio AI non sono un problema che colpisce solo celebrità e politici, come nel caso dei recenti deepfake del presidente americano Joe Biden. “Un errore comune è pensare che non possa succedere a te, che nessuno possa clonare la tura voce – afferma Rahul Sood, chief product officer di Pindrop, la società di sicurezza che è riuscita a scoprire le probabili origini degli audio che hanno clonato la voce di Biden –. Quello che la gente non capisce è che bastano solo 5-10 secondi della vostra voce presi da una clip di TikTok o da un video su YouTube per creare facilmente il vostro clone“.
Non cedete alle vostre emozioni
Che si tratti di pig butchering o di una telefonata realizzata da un’intelligenza artificiale, i truffatori esperti sono in grado di guadagnarsi la vostra fiducia, creare un senso di urgenza e trovare i vostri punti deboli. “Diffidate di qualsiasi situazione che susciti in voi emozioni forti, perché i migliori truffatori non sono necessariamente gli hacker più abili tecnicamente”, commenta Jabbara. Per evitare di essere fregati, a volte può bastare prendersi un momento per riflettere sulla situazione e non agire d’impulso.
Questo articolo è apparso originariamente su Wired US.
Fonte : Wired