Cosa ci insegna il tentato omicidio di Trump sulle allucinazioni dell’intelligenza artificiale

L’intelligenza artificiale di Meta – chiamata Meta AI, un chatbot che comprende il linguaggio naturale e risponde all’utente in modo discorsivo – nei giorni scorsi ha risposto in modo errato alle domande degli utenti sull’attentato di cui è stato vittima Donald Trump.

In sintesi è successo questo: inizialmente Meta ha deciso di non consentire alla sua IA di rispondere a domande su quanto accaduto il 13 luglio scorso in Pennsylvania.

Poi, quando l’azienda guidata da Zuckerberg ha deciso invece di “sbloccare” l’IA su questo argomento, il suo chatbot – in alcune occasioni – ha risposto che il tentato omcidio non è mai avvenuto.

Meta si è presa la responsabilità di quanto accaduto, ma ha dato la colpa a un elemento imprevedibile che caratterizza l’intelligenza artificiale.

Con un post pubblicato martedì scorso, infatti, l’azienda di Menlo Park si è difesa attribuendo quanto accaduto – “un evento spiacevole” – alle “allucinazioni” di cui soffrono le intelligenze artificiali generative, che si verificano quando i chatbot forniscono risposte errate o totalmente inventate.

È un grave difetto di questa tecnologia, che nessuno è stato ancora in grado di risolvere.

“Innanzitutto – scrive Meta – è noto che i chatbot di intelligenza artificiale, tra cui Meta AI, non sono sempre affidabili quando si tratta di dare notizie o restituire informazioni in tempo reale. In parole povere, le risposte generate dai modelli linguistici di grandi dimensioni che alimentano questi chatbot si basano sui dati su cui sono stati addestrati, il che a volte può comprensibilmente creare dei problemi quando all’IA vengono poste domande su argomenti in rapido sviluppo e in tempo reale”.

“Tra questi – aggiunge Meta – gli eventi di attualità come il tentato omicidio di Trump: all’inizio c’è un’enorme confusione, informazioni contrastanti o vere e proprie teorie cospirative di dominio pubblico (tra cui molte affermazioni palesemente errate secondo cui l’attentato non è avvenuto). Invece di lasciare che Meta AI fornisse informazioni errate sul tentato omicidio, l’abbiamo programmata per non rispondere alle domande su di esso dopo che è avvenuto, e per dare invece una risposta generica sul fatto che non poteva fornire alcuna informazione. Questo è il motivo per cui alcuni hanno riferito che la nostra IA si rifiutava di parlare dell’evento”.

Le difficoltà della Meta AI hanno costretto il colosso di Menlo Park a svelare, dunque, uno dei (tanti) filtri che le big tech utilizzano per arginare – nel bene e nel male – le loro intelligenze artificiali, per non rischiare che le risposte dei chatbot – imprevedibili come quelle che darebbe una persona in carne e ossa – risultino inappropriate, sconvenienti o dannose.

Ma questo “incidente” fa riflettere anche sui limiti dell’intelligenza artificiale generativa al servizio dei motori di ricerca, un’accoppiata che sognano sia Google sia OpenAI, che ha recentemente svelato SearchGpt.

“Ora abbiamo aggiornato le risposte che Meta AI fornisce sull’attentato – ha fatto sapere Meta – ma avremmo dovuto farlo prima. In un piccolo numero di casi, Meta AI ha continuato a fornire risposte errate, tra cui a volte l’affermazione che l’evento non è accaduto, cosa che stiamo rapidamente cercando di risolvere”.

“Questo tipo di risposte sono definite allucinazioni – conferma Meta – un problema che riscontriamo in tutti i sistemi di IA generativa e che rappresenta una sfida continua per la gestione degli eventi in tempo reale da parte dell’IA”.

La Meta AI è stata annunciata a settembre 2023 ma ancora non è disponibile in Europa.

Recentemente Meta ha annunciato un nuovo modello di intelligenza artificiale, chiamato Llama 3.1, che viene considerato il più grande e potente nel campo delle IA open-source, vale a dire accessibili e modificabili da chiunque.

Fonte : Repubblica