Cinque motivi per cui l’IA generativa è più pericolosa di ciò che pensiamo (e vediamo)

Musk e Zuckerberg combattono finalmente sul ring. Trump e Harris si baciano con passione. Barack Obama fuma marijuana nello Studio Ovale.

Niente di tutto questo è avvenuto realmente, eppure circolano immagini che lo testimoniano: sono quelle, fake, generate da Grok, il chatbot a disposizione degli utenti di X – il social di Musk – che ora può generare foto credibili a partire da un testo.

Il problema – come dimostrano gli esempi citati – è che l’uso del modello di intelligenza artificiale che sfrutta Grok, Flux.1, apparentemente non presenta alcuna restrizione, e dunque è molto più semplice creare deepfake estremamente realistici.

Tutto questo ci spinge a riflettere, nuovamente, sui rischi legati all’intelligenza artificiale generativa, soprattutto se questa è nelle mani di poche aziende e imprenditori.

1. L’IA generativa è più pericolosa di ciò che pensiamo

L’intelligenza artificiale generativa è più pericolosa di ciò che pensiamo e, per il momento, di ciò che possiamo vedere.

Se non siamo in presenza di un’ondata continua di immagini fake, e di personaggi pubblici intenti a fare cose che nella realtà non hanno mai fatto (i cosiddetti “deepfake”) è solo perché gli strumenti più facili da usare – come ChatGpt, Gemini e Copilot – prevedono dei filtri molto efficaci, che non consentono di generare immagini offensive, oscene, razziste, diffamatorie e violente.

Stiamo parlando di intelligenze artificiali “chiuse” e poco (o affatto) trasparenti – con tutti i difetti che questo comporta – ma sulla sicurezza dei contenuti generati fanno un lavoro importante.

2. Se l’IA è facile da usare, aumentano i deepfake

Il fatto è che non esiste solo l’IA sviluppata da OpenAI e Google.

Stanno emergendo altri modelli di intelligenza artificiale che consentono di generare immagini (quasi) senza filtri, a eccezione del nudo.

Il motivo per cui non rappresentano ancora un pericolo su larga scala, è che l’accesso a tali modelli di IA è complesso: in molti casi non hanno un’interfaccia semplice come quella di ChatGpt e richiedono delle competenze informatiche di base che non tutti possiedono.

L’accesso a Midjourney, uno dei tool più noti in grado di creare foto realistiche, richiede per esempio molteplici passaggi.

Non è la stessa cosa, insomma, di pagare qualche dollaro al mese per accedere a Grok, su cui basta fare una richiesta con linguaggio naturale per ottenere Kamala Harris che spara con due pistole.

3. Emergono nuovi modelli di IA “politicamente scorretti”

Uno di questi modelli senza filtri, Flux.1 sviluppato dalla startup Black Forest Lab, è diventato il nuovo fiore all’occhiello di Grok, il chatbot che si basa sull’IA sviluppata da xAI, un’azienda di proprietà di Elon Musk.

Questo ha permesso agli utenti (premium) del social X, anche questo di proprietà di Musk, di generare immagini inappropriate con estrema semplicità.

4. Filtri e censure sono un problema, in ogni caso

*I filtri che bloccano le richieste inappropriate, così come l’assenza di censure che consente di ottenere qualsiasi contenuto, restano un argomento controverso: chi decide cosa è giusto generare? Su quali basi, al di là di quelle che rispondono al buon senso?

Quando Google, alcuni mesi fa, ha cercato di rendere il suo chatbot Gemini più inclusivo, per rispecchiare la cultura di centinaia di Paesi del mondo in cui è disponibile, ha ottenuto l’effetto contrario: gli utenti non riuscivano a ottenere immagini con persone occidentali bianche.

E anzi ricevevano immagini anacronistiche, come quella di persone nere con l’uniforme di soldati nazisti.

5. L’IA generativa è un caso politico

Il matrimonio tra xAI e Black Forest Lab fa dell’intelligenza artificiale, almeno in America, un caso politico.

Sia Musk sia Black Forest Lab sembrano condividere la stessa filosofia: non amano il “politicamente corretto”.

Ai loro utenti, insomma, lasciano fare molte più cose di quelle che consentono big tech come Google e Microsoft.

C’è un altro elemento da considerare: Musk è uno dei principali sostenitori di Donald Trump.

E Black Forest Lab è uscita dall’ombra, a inizio agosto, dopo un investimento di 31 milioni di dollari guidato dalla società di venture capital Andreessen Horowitz.

Quest’ultima è stata fondata nel 2009 da Marc Andreessen e Ben Horowitz, due degli investitori più potenti e influenti della Silicon Valley, che hanno recentemente annunciato il loro sostegno a Trump nella corsa alla Casa Bianca.

Finora sono stati Musk e Donald Trump a chiamare in causa l’intelligenza artificiale per inquinare il processo democratico.
Musk ha condiviso sul suo account su X, seguito da più di 190 milioni di follower, uno spot che attacca Kamala Harris in cui viene usata la voce dell’attuale vicepresidente americana clonata con l’IA.
Trump invece ha recentemente scritto sul suo social, Truth, che la grande folla in attesa di Harris all’aeroporto di Detroit è stata creata con l’intelligenza artificiale.

Fonte : Repubblica