Tra nuovi pericoli e timori eccessivi, come sta cambiando la cybersicurezza

Sul finire del 2023, la filiale di Hong Kong della multinazionale britannica Arup è stata vittima di uno dei più sorprendenti cyberattacchi della storia. Secondo la ricostruzione della polizia, un dipendente di Arup ha ricevuto un’email contenente il link per collegarsi a una videoconferenza su Zoom. Il mittente era il responsabile finanziario della multinazionale, che nella email anticipava di dover discutere della necessità di eseguire rapidamente una transazione segreta.

Il dipendente, il cui nome non è stato diffuso, non si è subito convinto della genuinità dell’email, ma ha comunque deciso di partecipare alla videoconferenza. Una volta entrato, ogni suo dubbio è scomparso: assieme a lui erano infatti presenti colleghi, di cui ha riconosciuto il volto e la voce, e anche il dirigente da cui è partita la mail. Finalmente persuaso, il dipendente ha accettato di inviare in segretezza un bonifico da 25,6 milioni di dollari verso un ignoto destinatario.

Peccato che nulla di tutto ciò fosse vero. Il dipendente sarebbe infatti stato attirato in una complicatissima trappola: la videoconferenza a cui ha partecipato sarebbe stata popolata esclusivamente da deepfake, imitazioni digitali di persone realmente esistenti create tramite sistemi di intelligenza artificiale.

Se ancora poco più di un anno fa uno scenario di questo tipo poteva sembrare eccezionale, nel corso del 2025 le truffe digitali condotte tramite deepfake potrebbero invece diventare la normalità: “Ci aspettiamo che i deepfake creati con l’intelligenza artificiale saranno la causa principale degli attacchi informatici nel corso del 2025, dando ai cybercriminali la possibilità di avere a disposizione dei veri e propri kit per il phishing, tagliati su misura in base al tipo di azione che vogliono portare a termine”, ha spiegato dMarco Balduzzi, ricercatore Trend Micro Italia, nel corso di un evento organizzato a Milano dalla multinazionale della cybersicurezza.

Attenzione, con il termine “deepfake” non si fa in questo caso riferimento soltanto ai video che riproducono le fattezze di persone reali, ma anche alla clonazione vocale impiegata nelle truffe telefoniche o all’utilizzo di large language model (come ChatGPT) per creare email o messaggi che riproducono realisticamente lo stile e i contenuti di un collega di lavoro.

Quest’ultimo è un caso particolarmente insidioso. Se ormai abbiamo imparato a essere sospettosi nei confronti di email che ci chiedono dati d’accesso o informazioni personali, questa diffidenza – com’è stato spiegato nel corso dell’evento – tende a venire meno se la corrispondenza, al posto di essere limitata a una sola email di phishing, diventa un vero e proprio scambio o si sposta su altri canali, come può essere WhatsApp.

Per questa ragione, soprattutto nel mondo delle aziende e della pubblica amministrazione, si consiglia di adottare la cosiddetta “diffidenza operativa”, che richiede di farsi fornire dal nostro interlocutore delle informazioni che soltanto un collega reale, e non impersonato dall’intelligenza artificiale, sarebbe in grado di fornirci.

È anche a causa di questa evoluzione – e del fatto che gli attacchi non colpiscono più in maniera indiscriminata, ma prendono di mira grandi organizzazioni e sottraggono enormi quantità di dati sensibili – che i danni economici causati dal cybercrimine sono in netta crescita. Secondo i dati dei ricercatori di Trend Micro, negli ultimi dieci anni si è passati dai 3mila miliardi di dollari di danni del 2015 ai 10mila miliardi previsti per il 2025, con un aumento del 15% su base annua.

Condurre attacchi informatici è inoltre sempre più semplice: se dieci anni fa il dark web era utilizzato principalmente per la compravendite di sostanze illecite (circa il 65% del totale), oggi questo mercato è dominato dalla vendita di attacchi informatici su commissione. In poche parole, i gruppi organizzati offrono i loro servizi – o i loro software – al miglior offerente, permettendo a chiunque di colpire bersagli anche importanti (soprattutto aziende, ospedali, wallet di criptovalute, ecc.).

Almeno per il momento, si può invece tirare un sospiro di sollievo per quanto riguarda la diffusione e la facilità di utilizzo di software come WormGPT o GhostGPT: modelli derivati dai più noti large language model e che online vengono pubblicizzati dai loro autori come se avessero la capacità di produrre malware semplicemente tramite un prompt, ovvero un comando formulato in linguaggio naturale.

“È vero che dopo l’avvento di ChatGPT si è parlato della diffusione di versioni pirata che permettevano di ottenere codici malevoli, e i ricercatori hanno effettivamente trovato malware che contengono parti create con sistemi di intelligenza artificiale”, spiega a ItalianTech Gianluca Galasso, direttore del servizio operazioni dell’Agenzia per la Cybersicurezza Nazionale (ACN). “Ma di per sé questi malware non sono niente di nuovo. Il vero problema è che, quando questi sistemi saranno più avanzati, potranno essere a disposizione di tutti”.

L’intelligenza artificiale può però essere anche un alleato della cybersicurezza: “Come ACN, utilizziamo l’intelligenza artificiale non tanto per individuare comportamenti anomali, come fanno magari le aziende, ma soprattutto per mettere a sistema grandi numeri e big data, in modo da collegare vari aspetti della materia che dobbiamo analizzare”, prosegue Galasso.

Ma tra intelligenze artificiali alleate e quelle invece avversarie, esiste anche una zona grigia, costituita da sistemi che, nonostante siano apparentemente innocui, potrebbero rappresentare una minaccia. È il caso per esempio di DeepSeek R1, il large language model cinese che non preoccupa soltanto per la possibilità che venga usato a scopi di disinformazione, ma anche perché – se usato per esempio per la programmazione – potrebbe inserire vulnerabilità nei sistemi informatici. Siamo pronti a difenderci da queste nuove possibili minacce?

“Sono sistemi che spuntano all’improvviso e hanno bisogno di tempo per essere analizzati”, conclude Galasso. “Ci aspettano sicuramente anni in cui ci sarà un fiorire di applicazioni di questo tipo sempre più performanti. La preoccupazione che si pone l’Agenzia per la Cybersicurezza Nazionale, anche come rappresentante di uno stato membro dell’Unione Europea, è che queste applicazioni rispondano a determinati criteri, che nel nostro continente sono stabiliti dall’AI Act. Il tema che ci poniamo come agenzia è capire, dal punto di vista della cybersicurezza, quali nuove vulnerabilità potrebbero portare questi sistemi, sia a livello di infrastrutture sia a livello di persone. Ma è ancora tutto da capire e da studiare”.

Fonte : Repubblica