OpenAI è stata denunciata per le “allucinazioni” di ChatGPT

Secondo l’organizzazione per i diritti digitali Noyb, ChatGPT di OpenAI continua a generare informazioni false sulle persone, violando le disposizioni del Regolamento generale sulla protezione dei dati dell’Unione europea (Gdpr). Per questo Noyb, che ha sede in Austria, ha presentato denuncia contro OpenAI presso il Garante privacy austriaco, chiedendo di intervenire nei confronti della compagnia statunitense per farle rispettare le regole europee.

Ai sensi del Gdpr, tutte le informazioni relative a persone, che vengono diffuse online, devono essere accurate e precise e agli utenti deve essere garantito un accesso completo a queste informazioni, così come alle fonti da cui provengono. Nonostante ciò, secondo Noyb, OpenAI ha ammesso apertamente di non essere in grado né di correggere le informazioni sbagliate fornite da ChatGPT, le cosiddette “allucinazioni”, né di stabilire da dove provengano. Inoltre, non saprebbe nemmeno quali informazioni personali siano state memorizzate da ChatGPT.

Come riporta il sito di Noyb, OpenAI sostiene semplicemente che “l’accuratezza fattuale nei modelli linguistici di grandi dimensioni”, come i chatbot a intelligenza artificiale, “rimane un’area di ricerca attiva”. In altri termini, con questa frase OpenAI spiega di non avere ancora il controllo su quello che dice ChatGPT. Ma fornire informazioni sbagliate, fuorvianti o addirittura completamente inventate, può essere molto dannoso, soprattutto se queste informazioni riguardano persone. Secondo un’indagine del New York Times, i chatbot forniscono informazioni inventate tra il 3% eil 27% delle volte.

Inventare informazioni false è di per sé abbastanza problematico. Ma quando si tratta di informazioni false sulle persone, le conseguenze possono essere gravi. È chiaro che le aziende non sono attualmente in grado di rendere i chatbot come ChatGPT conformi alla legge dell’Unione europea, quando trattano dati relativi a persone fisiche. Se un sistema non è in grado di produrre risultati accurati e trasparenti, non può essere utilizzato per generare dati sulle persone. La tecnologia deve seguire i requisiti legali, non il contrario”, ha detto Maarje de Graaf, avvocata specializzata nella protezione dei dati presso Noyb.

Pertanto, Noyb ha chiesto al Garante privacy austriaco di intervenire contro OpenAI, aprendo un’indagine che porti all’imposizione di misure correttive, sanzioni e una decisione definitiva in merito alle “allucinazioni” di ChatGPT. L’organizzazione ha inoltre rivolto la denuncia verso una delle diramazioni a scopo di lucro di OpenAI, la OpenAI OpCo con sede negli Stati uniti, sostenendo che la sede europea dell’organizzazione situata in Irlanda sia solo un ufficio di facciata e che le decisioni vengano prese solamente negli Stati Uniti.

Fonte : Wired