Il 29 aprile 2024 un’associazione austriaca per la protezione dei diritti civili ha chiesto alla propria autorità nazionale di protezione dei dati viennese di intervenire sull’incapacità di ChatGPT di fornire risultati corretti su un cittadino e chiedendo, in nome del GDPR, di imporre a OpenAI di fare qualcosa per correggere lo stato di fatto.
Non dubito che la frenesia luddista che si è scatenata contro il machine learning troverà il modo di stabilire che una richiesta del genere vada accolta. Tuttavia, rimane il fatto che polemiche di questo genere si basano sull’ostinata (e palesemente sbagliata) convinzione che ChatGPT e software simili siano progettati per fornire risultati esatti e corretti, quando questo non è vero.
ChatGPT non è il supercomputer della Guida galattica per gli autostoppisti, in grado di fornire la risposta alla “domanda definitiva sulla vita, sull’universo e su qualsiasi cosa” e le sue “allucinazioni”, cioè i risultati diversi da quelli che l’utente si aspetta, sono semplicemente una parte del modo in cui funziona. In questo senso, dunque, ChatGPT è più simile alla Pizia – l’oracolo che forniva responsi da interpretare – che a una macchina onnisciente
Come nel caso dei motori di ricerca (dei cui risultati, invece, nessuno si preoccupa), la decisione finale su come usare i risultati di una generativa dovrebbe spettare alla persona che la utilizza, come a questa dovrebbe spettare la responsabilità per le scelte che vengono assunte sulla base del “responso”.
Dunque, dato per scontato che i risultati di ChatGPT sono intrinsecamente affetti da una certa quantità di errori, perché dovremmo lamentarci quando questi errori si manifestano? Se un servizio del genere non è utilizzabile oppure è troppo rischioso farlo, allora, semplicemente, basta evitarlo. Questo, tuttavia, non accade e le persone si ostinano caparbiamente usare cacciaviti per piantare chiodi, perché è troppo forte la spinta a delegare a un software non solo i compiti più banali ma anche quelli che richiedono pensiero e competenza.
Messa in questi termini, dunque, la rivendicazione del cittadino austriaco che pretende da ChatGPT output esatti sul proprio conto non ha semplicemente senso. Anzi, se fosse realmente preoccupato per la propria privacy, dovrebbe essere entusiasta del fatto che ChatGPT non sa nulla di lui, ma tant’è.
Da un’altra prospettiva, tuttavia, chi di marketing ferisce, di marketing perisce e dunque OpenAI – come gli altri attori della tragicommedia sull’AI che spopola sui palchi di mezzo mondo – devono fare il conto con il modo in cui le AI generative sono state presentate al mondo.
In altri termini, se le strategie di comunicazione legate all’AI hanno posizionato questi prodotti come “intelligenti”, “superumani” o “sapienti”, se li hanno invariabilmente ritratti con immagini di cyborg in contesti cyberpunk, se hanno suggerito l’arrivo prossimo venturo dei Trisolariani o dei robot NS5 al comando di Sonny, difficilmente chi le ha pensate e messe in opera si può lamentare se chi è stato ipnotizzato da questa narrativa (compresi i decisori e le autorità indipendenti) poi agisce pensando che i marketing claim siano reali.
È già successo con le bufale del “cyberspazio” e del “virtuale”, concetti che dalla fantascienza sono entrati per la porta principale nelle aule parlamentari e in quelle giudiziarie. Dunque, ci sono pochi dubbi che, con la coazione a ripetere tipica della diffusa concezione superstiziosa di scienza e tecnologia, anche nel caso dell’AI generativa i risultati non saranno troppo diversi.
Fonte : Repubblica