OpenAI è al lavoro per mitigare un bug di esfiltrazione dei dati in ChatGpt, che potrebbe potenzialmente far trapelare i dettagli della conversazione di un utente a un osservatore esterno. Secondo quanto riportato da Bleeping Computer, la compagnia ha già cercato di adottare una soluzione per il problema, senza ottenere però il risultato sperato. Inoltre, sembrerebbe che OpenAI non abbia ancora incrementato i controlli di sicurezza nell’app iOS del chatbot. Eppure, il ricercatore Johann Rehberger ha segnalato alla compagnia per la prima volta il bug che permette l’esfiltrazione dei dati da ChatGpt nell’aprile del 2023 e poi ancora a novembre dello stesso anno, ma senza ottenere risposta alcuna.
E così, a seguito della mancanza di risposta da parte di OpenAI , Rehberger ha deciso di condividere con il pubblico un sistema – identificato con il nome “The Thief!“ – che permette di esfiltrare i dati della conversazione di un utente con ChatGpt su un url esterno di terze parti. Secondo quanto dimostrato dal ricercatore, i malintenzionati avrebbero la possibilità di utilizzare una versione malevola di Gpt così da riuscire a sottrarre ai poveri malcapitati, senza che se ne rendano conto, non solo i dettagli delle conversazioni – come il testo e/o le immagini inseriti- ma anche i metadati (timestamp, ID utente, ID sessione) e i dati tecnici (indirizzo IP, stringhe dell’agente utente). Inoltre, come mostra il video sotto, possono anche essere richiesti dati sensibili e password.
Dopo che il ricercatore ha condiviso i dettagli del bug di ChatGpt, OpenAI ha subito risposto adottando una serie di controlli utili lato client. Secondo quanto riferito da Rehberger, però, in alcuni casi il chatbot esegue ancora richieste proventienti da domini arbitrari, permettendo così ai malintenzionati di mettere le mani sui dettagli delle conversazioni. Se così fosse, è evidente che ChatGpt ha un problema non indifferente con i criminali informatici, che potrebbero utilizzare il sistema del ricercatore per accedere ai dati sensibili degli utenti, estrapolandoli dalle loro conversazioni attraverso una versione malevola del chatbot. Per il momento, però, OpenAI non ha rilasciato alcun commento al riguardo, il che porta a pensare che stia lavorando per cercare una soluzione definitiva alla questione.
Fonte : Wired