L’attacco a Europcar è stato creato con ChatGpt

È caos Europcar. La scorsa domenica, infatti, un utente ha pubblicato su un popolare forum di hacking la notizia di essere riuscito a rubare i dati di oltre 48 milioni di persone dai sistemi del colosso dell’autonoleggio. A dimostrazione di quanto affermato, ha condiviso in rete le informazioni sensibili di 31 presunti clienti – tra cui nomi, indirizzi, date di nascita e numeri di patente di guida -, creando così non poco scompiglio nel settore. Di tutta risposta, ieri Europcar ha fatto sapere di non aver subito alcuna violazione nei giorni passati, rivelando che i dati trapelati in rete erano falsi, “probabilmente generati da ChatGpt”.

X content

This content can also be viewed on the site it originates from.

A confermare che il campione dei dati trapelati è tutt’altro che legittimo c’è anche Troy Hunt di Have I Been Pwned, un sito web che consente agli utenti di verificare se le proprie informazioni sono state compromesse. “In primo luogo, per quanto riguarda la legittimità dei dati, ci sono diverse cose che non tornano – ha scritto ieri su X -. La più evidente è che gli indirizzi email e i nomi utente non hanno alcuna corrispondenza con i nomi delle persone in questione”. Al di là di questo, Hunt fa notare che buona parte degli indirizzi pubblicati dal presunto cybercriminale “semplicemente non esistono”.

Quello su cui l’esperto non sembra essere d’accordo, però, è che i dati pubblicati siano stati creati dall’intelligenza artificiale. Anzi, sostiene che la scelta di coinvolgere ChatGpt sia solo legata alla sua popolarità, e a null’altro. “Abbiamo inventato violazioni da sempre perché le persone vogliono pubblicità, farsi un nome o magari guadagnare soldi velocemente“, chiosa Hunt, insistendo sul fatto che probabilmente la notizia dei dati rubati a Europcar è più legata a una volontà di notorietà che ad altro. D’altronde, secondo quanto riportato da TechCrunch, quando si chiede a ChatGpt di creare “un set di dati personali falsi rubati” il chatbot risponde di non poter contribuire “alla creazione o alla promozione di attività illegali o non etiche“. Quello che viene da chiedersi, quindi, è come un utente sia riuscito a generare dati rubati bypassando i termini di servizio del chatbot. Ma forse non è poi così difficile.

Fonte : Wired