Uno studio dal titolo ChatGPT is bullshit curato da tre ricercatori dell’Università di Glasgow non usa mezzi termini. Le Intelligenze artificiali generative, come ChatGPT, dicono fesserie ma non hanno le allucinazioni che, nello specifico, sono quelle risposte prive di fondamento che sembrano però plausibili.
Uno dei casi più famosi risale al mese di maggio del 2023, quando un avvocato di New York si è avvalso di ChatGPT per scrivere un’arringa che l’IA generativa ha sviluppato citando sentenze precedenti, inventate.
Quando si parla di IA generative, dicono gli autori della ricerca, il termine allucinazioni deve essere relativizzato rispetto al significato che gli viene conferito quando viene associato all’essere umano. Infatti, anche a livello etimologico, il termine può essere riconducibile al “perdere la coscienza”, “scappare dalla realtà”.
Il punto è proprio questo: le IA generative non hanno alcun rapporto con la coscienza e con la realtà e quindi non possono né stravolgerla né sfuggirvi. Non hanno allucinazioni, dicono vere e proprie baggianate. Il risultato per chi le usa non cambia perché, quale che sia l’eziologia dei loro svarioni, si dimostrano inaffidabili. Ed è un problema soprattutto per quanto riguarda il loro sviluppo e il loro uso.
Un tema etico che ha ricadute pratiche che approfondiamo con il supporto di Massimo Chiriatti, tecnologo oggi Chief Technology and Innovation Officer di Lenovo, autore di libri sulle IA e coautore, con Luciano Floridi, del paper GPT-3: Its Nature, Scope, Limits, and Consequences.
Le IA generative non dicono la verità
Il ruolo primario delle IA generative è quello di rispondere agli utenti così come farebbe un operatore umano e non è quello di dire la verità che, peraltro, non conoscono.
I Large Language Model (LLM) sono sistemi IA ingegnerizzati per comprendere e generare linguaggio umano. Per il loro addestramento vengono usati grandi quantità di dati (Big data), algoritmi e metodi statistici mediante i quali imparano a prevedere le parole da inserire nelle frasi che stanno scrivendo.
Da nessuna parte il processo di progettazione e sviluppo degli LLM coinvolge la realtà delle cose. Possono scrivere frasi perfette dal punto di vista sintattico e grammaticale e, nel medesimo tempo, restituire argomenti convincenti ma completamente sbagliati.
Con Massimo Chiriatti cerchiamo di capire cosa sta succedendo, perché è inopportuno parlare di IA soltanto dal punto di vista tecnologico e quanto dobbiamo ridisegnare le nostre attese per usare al meglio delle loro possibilità.
Quanto è giusto sostenere che le IA generative non hanno un rapporto con la realtà?
“È una domanda che al momento ha una sua tesi di verità perché, se consideriamo il testo, gli LLM manipolano la sintassi dei simboli senza avere una comprensione semantica profonda. Possono condurre ragionamenti deduttivi (basati sulle regole) e qualche calcolo induttivo (basati sulla statistica), ma si arenano perché non comprendono il contesto, dipendono solo dai modelli e dalle informazioni esplicite su cui sono stati addestrati. Ciò non toglie che sono sempre gli umani ad aver la possibilità di saperli usare”.
Se non hanno il senso del vero, perché le persone si aspettano che siano sincere nel rispondere?
“Da sempre abbiamo cercato di antropomorfizzare il mondo che ci circonda, così facciamo meno fatica nell’interpretarlo ogni volta, è un metodo naturale, rapido e conveniente per elaborare le informazioni. In sintesi, vuol dire che cerchiamo di attribuire caratteristiche umane anche all’intelligenza artificiale, così ci ‘auto-inganniamo’. Trattiamo la macchina come se avesse esperienze, emozioni, opinioni o motivazioni. Se pensiamo quindi che siano sincere, corrette e sagge sbagliamo noi, non le macchine, perché non sono un essere umano”.
Questa mancanza di contestualizzazione (che qualcuno scambia per allucinazioni o per bugie) può essere un’arma in mano ai decisori al fine di demonizzare le IA e ritardarne in qualche modo il progresso e l’utilità per la società?
“Ogni rivoluzione tecnologica, pensiamo all’introduzione della stampa, dell’elettricità e di internet, cambia le dinamiche di potere sociale esistenti, presto e per sempre. Non esiste una tecnologia simile alle IA, soprattutto in termini delle sue conseguenze, per tale motivo questa disciplina è degna di uno studio serio. Prima di pensare se farà bene o male e leggere troppe esagerazioni legate alla tecnologia, dobbiamo capire chi intende usarla e con quale fine per la società. Quando si parla quindi a livello macro, abbiamo bisogno di mettere insieme tante competenze, non solo quelle tecniche ma anche quelle filosofiche, antropologiche, e pedagogiche, per esempio. Tutto dovrà essere ripensato. La storia ci dice che dopo le iniziali turbolenze, l’umanità ha trovato il modo di gestire l’innovazione. Se partiamo presto, sia a livello dei cittadini, sia a livello di organizzazioni internazionali, possiamo essere confidenti sui risultati”.
Storicamente, quando ci si è confrontati con una nuova scoperta o una nuova tecnologia, sono nate parole nuove che aiutano a qualificarle e anche a spiegarle. Abbiamo bisogno di nuove terminologie per spiegare in modo corretto le IA?
“Questa è una urgenza molto condivisibile, perché quando nasce una nuova disciplina è più facile antropomorfizzare il lessico e darlo alle macchine invece che creare nuove parole che dobbiamo capire e condividere con tutti. Lemmi come ‘intelligenza’, ‘apprendimento’ e ‘coscienza’ hanno ormai aperto un dibattito, in letteratura, sulla loro eventuale applicabilità”.
Quali parole si potrebbero usare?
“Non saprei rispondere, non sono un linguista purtroppo, ma so che siamo fortunati nel vivere qui dove c’è una conoscenza dei classici molto diffusa e avanzata. Facendo leva su tale cultura, ma non separandoci dai tecnici, anzi lavorando insieme, troveremo e proporremo al mondo un nuovo lessico. Servono i linguisti e questa è un’ottima opportunità per noi italiani”, conclude Chiriatti.
In sintesi, non chiamare allucinazioni gli svarioni delle IA assume un senso per due motivi. Perché non sono allucinazioni e perché trovare un nome migliore (baggianate, stupidaggini, idiozie) aiuta la comprensione pubblica degli errori compiuti da questi sistemi e aiuta anche a trovare le opportune soluzioni.
Fonte : Repubblica