Intelligenza artificiale, perché i chatbot romantici sono un incubo per la privacy

L’applicazione più importante discussa nella ricerca di Mozilla è Replika, che viene pubblicizzata come un’app da compagnia e che in Italia l’anno scorso è stata fermata dal Garante della privacy. Nel 2023 Mozilla aveva già pubblicato un’analisi su Replika, e sempre l’anno scorso l’ad e fondatrice Eugenia Kuyda del servizio aveva dichiarato in una lunga dichiarazione che l’app non “utilizza i dati delle conversazioni tra un utente e l’applicazione per scopi pubblicitari o di marketing”.

Molti chatbot analizzati da Mozilla sono stati lanciati negli ultimi due anni (dopo l’inizio del boom dell’AI generativa) e richiedono abbonamenti a pagamento per accedere ad alcune funzioni. Spesso questi sistemi sono progettati per imitare le qualità umane e incoraggiare gli utenti a fidarsi e sviluppare una certa intimità con l’AI. Diversi casi dimostrano che questo particolare aspetto può prendere una piega inquietante: l’anno scorso uomo, un chatbtot ha ordinato a un uomo di uccidere la Regina Elisabetta II , mentre un altro si sarebbe suicidato dopo aver messaggiato con un bot per sei settimane. Alcune app inoltre si propongono come “strumenti utili”. La homepage di Romantic AI dice per esempio che il servizio serve anche a “preservare la vostra salute mentale”; peccato solo che le condizioni d’uso del servizio sottolineano che non è un fornitore di servizi medici o di salute mentale e che l’azienda “non fa alcuna dichiarazione, garanzia o assicurazione” in merito.

Vivian Ta-Johnson, assistente alla cattedra di psicologia del Lake Forest College, sostiene alcune persone potrebbero sentirsi più a loro agio a parlare di certi argomenti con dei chatbot rispetto ad altre persone. La docente però evidenzia come la chiusura dell’azienda dietro all’app o un cambiamento nel funzionamento del sistema potrebbe rappresentare un’esperienza traumatica per chi ha sviluppato un legame emotivo con l’AI.

Alcuni utenti, poi, potrebbero non valutare con attenzione quello che rivelano ai chatbot. Per le AI romantiche, queste informazioni potrebbero includere preferenze sessuali o perversioni, oltre a situazioni o luoghi privati. In questi casi una violazione o una fuga di dati potrebbero causare danni alla reputazione degli utenti. Adenike Cosgrove, vicepresidente responsabile delle strategie di cybersecurity per l’Europa, il Medio Oriente e l’Africa della società Proofpoint, afferma che i criminali informatici fanno spesso leva sulla fiducia delle persone per truffarle o sfruttarle, e i servizi che raccolgono enormi quantità di dati sulle persone comportano un rischio intrinseco. “Molti utenti non tengono conto delle implicazioni sulla privacy dei loro dati, esponendosi potenzialmente allo sfruttamento, in particolare quando sono emotivamente vulnerabili”, dice Cosgrove.

Per quanto riguarda i chatbot romantici e i servizi simili, Caltrider sottolinea che gli utenti dovrebbero essere particolarmente cauti e adottare le migliori pratiche di sicurezza, come ricorrere a password forti, non accedere alle app tramite Facebook o Google, cancellare i propri dati e disabilitare la raccolta dei dati quando possibile. “Limitate il più possibile le informazioni personali che condividete: non fornite nomi, luoghi ed età”; con alcuni di questi servizi tuttavia, anche queste precauzioni potrebbero non bastare: “Anche facendo tutto questo cose potreste non essere al sicuro“, spiega.

Questo articolo è comparso originariamente su Wired US.

Fonte : Wired