Non c’è pace tra OpenAI e il Garante della privacy italiano. A un mese dalla formalizzazione delle contestazioni su ChatGPT, il potente chatbot sviluppato dalla società statunitense e finito nel mirino dell’Autorità garante per la protezione dei dati personali nella primavera dello scorso anno, gli uffici di piazza Venezia aprono un nuovo fascicolo a carico del gruppo guidato da Sam Altman. Stavolta nel mirino è finito l’ultimo prodotto di casa OpenAI: Sora, un sistema di intelligenza artificiale che consente di creare video a partire da una serie di istruzioni testuali.
Come è già successo nella primavera del 2023, il Garante della privacy ha messo sotto i riflettori il trattamento dei dati personali degli utenti che si trovano nell’Unione europea e, nello specifico, in Italia. A tal proposito, l’autorità ha chiesto al gruppo statunitense di fornire una serie di chiarimenti. Ora OpenAI ha 20 giorni di tempo per dare la sua versione dei fatti. Nello specifico, il Garante della privacy, come scrive in una nota, vuole sapere se “il nuovo modello di intelligenza artificiale sia un servizio già disponibile al pubblico e se venga o verrà offerto a utenti che si trovano nell’Unione Europea, in particolare in Italia”.
Tra gli punti su cui l’Autorità a tutela della privacy vuole fare luce, vi sono: le modalità di addestramento dell’algoritmo di Sora; il tipo di dati raccolti ed elaborati dal modello di AI (in particolare, il Garante vuole capire se vi siano dati personali); le fonti adoperate per l’elaborazione delle istruzioni testuali; il ricorso a categorie di dati sensibili, come credenze religiose, convinzioni filosofiche, appartenenze politiche, dati genetici e sanitari, informazioni sull’orientamento sessuale. Ancora, il Garante vuole vederci chiaro sulla conformità al regolamento europeo di protezione dei dati personali (il Gdpr) e verificare che le informative agli utenti e le modalità utilizzate per spiegare come vengono usati i dati siano adeguate alle previsioni del pacchetto di norme.
Fonte : Wired