L’Intelligenza artificiale di Meta integrata in Whatsapp continua a far discutere. Non si placano di dubbi, le richieste di chiarimento, i pericoli paventati dagli esperti di privacy sulle possibili conseguenze di avere un’IA avanzata in una chat di messaggistica.
L’assistente AI di Meta, integrato in WhatsApp, Facebook, Instagram e Messenger, è stato lanciato a livello globale nelle ultime settimane: prima negli USA, poi in Europa e in Italia dove è disponibile da poco più di una settimana. Sebbene lo strumento offra risposte in tempo reale, la sua pubblicazione ha sollevato forti preoccupazioni sulla privacy, in particolare sul modo in cui vengono gestiti i dati degli utenti.
La Data Protection Commission (DPC) irlandese, autorità di riferimento per Meta in UE, ha evidenziato questioni irrisolte riguardo all’uso dei dati personali per l’addestramento dei modelli di intelligenza artificiale, specialmente su WhatsApp. Il DPC ha dichiarato di avere “alcune questioni aperte che richiedono risposta” e di essere ancora in dialogo con WhatsApp per chiarimenti. La DPC aveva già sollevato dubbi l’anno scorso sull’IA di Meta. Dubbi che, visto il rilascio in Europa, sembravano essere superati. Evidentemente non del tutto. Da quanto risulta a Italian Tech, il Garante per la protezione dei dati personali e la privacy italiano al momento non ha intenzione di aprire istruttorie, ma segue quanto avviene in Irlanda e dall’autorità competente sul settore.
La risposta di Meta: nessun addestramento sui dati dei cittadini Ue
Meta ha precisato che la versione europea di Meta AI non è stata addestrata sui dati degli utenti locali, una distinzione pensata per rassicurare sul rispetto del GDPR. Tuttavia, secondo i critici, questa misura non basta a garantire piena trasparenza sulle politiche generali di utilizzo dei dati.
L’IA di Meta agisce come un assistente virtuale dentro le app della società, come Whatsapp. È il pallino colorato che è spuntato in basso a destra nella schermata di Whatsapp negli ultimi giorni a tutti gli utenti del servizio. Funziona come una IA generativa come le altre: risponde a domande grazie a modelli linguistici avanzati, ma non è in grado di creare immagini o video come altri modelli. Sebbene Meta assicuri che non acceda ai messaggi crittografati end-to-end di WhatsApp, le interazioni con l’AI non sono protette da questa crittografia e potrebbero essere utilizzate per migliorare gli algoritmi. Ed è questo uno dei problemi maggiori riscontrati dagli esperti di privacy.
L’IA di Meta non si può disistallare. E gli utenti di Whatsapp non approvano
Meta dice che allena la propria intelligenza artificiale dalle sole conversazioni fatte con il chatbot, in app. E non è in grado di leggere i contenuti delle conversazioni private. E di non raccogliere dalle conversazioni alcun dato. Anche se però si raccomanda “di non condividere informazioni personali” e “di condividere le informazioni con partner selezionati in modo che Meta Ai possa fornire risposte pertinenti”. In più c’è la Gdpr, che dovrebbe tutelare ulteriormente i cittadini italiani e europei. Ed è proprio per cercare di rispettare in ogni aspetto la Gdpr che il servizio è stato lanciato nel Vecchio Continente con qualche ritardo.
In più c’è un altro tema. Molti utenti hanno espresso disappunto dopo aver scoperto che non è possibile disattivare completamente Meta AI su WhatsApp. Denunciano quindi una mancanza di controllo sulle nuove funzionalità imposte, in pratica la possibilità di scegliere se si vuole o meno il servizio. Nonostante le rassicurazioni di Meta, i dubbi quindi restano. Con i regolatori che chiedono chiarezza e gli utenti che pretendono maggiore autonomia. Riaccendendo l’eterno dibattito sul rapporto tra innovazione e privacy. Dibattito antico, mai fino in fondo risolto.
Fonte : Repubblica