Nessuno sa se l’intelligenza artificiale si rivelerà una manna o una maledizione nel lontano futuro. Ma al momento c’è una tendenza da parte di chatbot e agenti AI che sta suscitando un disagio e un disprezzo quasi universali: si tratta delle allucinazioni, i fatti inventati che appaiono nei risultati dei grandi modelli linguistici (Llm) come ChatGPT. In mezzo a quella che sembra una risposta costruita con attenzione, gli Llm possono inserire un’informazione che a prima vista sembra sensata ma che in realtà è totalmente falsa. Dal momento che sembra inevitabile che un giorno i chatbot genereranno la stragrande maggioranza di tutta la prosa mai scritta, le aziende di AI stanno cercando ossessivamente di minimizzare ed eliminare le allucinazioni, o almeno di convincere il mondo che il problema è sotto controllo.
Ovviamente, il valore degli Llm raggiungerà un nuovo livello se e quando le allucinazioni si avvicineranno allo zero. Ma prima che ciò accada, vi chiedo di brindare con me alle fandonie dell’AI.
Perché l’AI ha le allucinazioni
Le allucinazioni mi affascinano, anche se gli scienziati che si occupano di intelligenza artificiale hanno un’idea abbastanza precisa del perché si verifichino. Una startup di AI chiamata Vectara ha studiato le allucinazioni e la loro prevalenza, arrivando a calcolare i tassi di allucinazione di vari modelli. GPT-4 di OpenAI è risultato essere il migliore da questo punto di vista, producendo allucinazioni solo nel 3% dei casi, mentre l’ormai obsoleto Palm Chat di Google (che è una cosa diversa dal chatbot dell’azienda, Bard) ha registrato un tasso del 27%, anche se va detto che riassumere documenti non era il punto di forza del sistema. Il chief technology officer di Vectara, Amin Ahmad, sostiene che gli Llm creano una rappresentazione compressa di tutti i dati di addestramento che passano attraverso i loro neuroni artificiali: “La natura della compressione fa sì che i dettagli possano andare persi“, spiega. Un modello fornisce le risposte più probabili alle domande degli utenti, ma non ha a disposizione i fatti esatti: “Quando arriva ai dettagli, inizia a inventare“, aggiunge Ahmad.
Anche Santosh Vempala, professore di informatica alla Georgia Tech, ha studiato le allucinazioni: “Un modello linguistico è solo un modello probabilistico del mondo” e non uno specchio fedele della realtà, sottolinea. La sua ricerca, pubblicata insieme ad Adam Kalai di OpenAI, ha scoperto che nel caso di fatti che non possono essere verificati utilizzando le informazioni contenute nei suoi dati di addestramento, le allucinazioni degli Llm sono inevitabili.
Realtà alternative e creatività
Questa è la spiegazione scientifico-matematica delle allucinazioni prodotte dall’intelligenza artificiale, che però sono significative anche per quello che possono suscitare negli esseri umani. A volte, le invenzioni dell’AI generativa sembrano più plausibili dei fatti reali, che spesso sono sorprendentemente bizzarri e insoddisfacenti. Quante volte oggi capita di ascoltare una persona descrivere una cosa così strana che nessun sceneggiatore oserebbe includerla in un film? Le allucinazioni sono in grado di sedurci perché sembrano portarci in un mondo meno stridente di quello in cui viviamo. Dal mio punto di vista, inoltre, è interessante sottolineare quali sono i dettagli che i bot tendono a inventare. Nel loro disperato tentativo di riempire gli spazi vuoti di una narrazione soddisfacente, gravitano verso la versione statisticamente più probabile della realtà rappresentata nei loro dati di addestramento, che in qualche modo può essere una forma di verità. Paragono questa tendenza a uno scrittore di narrativa che scrive un romanzo ispirato a eventi reali. Un buon autore si discosta dai fatti realmente accaduti dipingendo uno scenario immaginario che rivela una verità più profonda, cercando di creare qualcosa che è più reale della realtà.
Fonte : Wired