Intelligenza artificiale, i chatbot sempre più “umani” ci faranno il lavaggio del cervello

I computer che cercano di imitare i comportamenti sociali, le emozioni o il senso dell’umorismo degli esseri umani non sono una novità. Fino a poco tempo fa, però, i risultati erano stati tutto sommato modesti.

Il recente lancio di una nuova versione di ChatGPT da parte di OpenAI suggerisce che le cose stanno per cambiare. L’aggiornamento del chatbot si basa su GPT-4o, un nuovo modello di intelligenza artificiale multimodale che secondo l’azienda è in grado di elaborare input visivi e uditivi. Il sistema permette per esempio di puntare la fotocamera del telefono verso un una tazza di caffè rotta o un’equazione differenziale per poi chiedere a ChatGPT di suggerire il da farsi. Ma l’aspetto più interessante della dimostrazione con cui OpenAI ha lanciato il suo ultimo modello è la nuova “personalità” di ChatGPT.

L’arrivo dei chatbot “umani”

Il chatbot aggiornato parla con una voce femminile e sensuale che a molti ha ricordato quella di Scarlett Johansson, che interpretava il sistema operativo AI nel film Her. Nel corso della demo, ChatGPT ha usato la sua nuova voce per esprimere diverse emozioni, ridere alle battute e addirittura flirtare, imitando esperienze umane che il software non può avere.

Il fatto che l’evento di OpenAI si sia svolto appena un giorno prima del Google I/O, la vetrina annuale di Big G dedicata agli sviluppatori, non è certo una coincidenza. A sua volta, il colosso delle ricerche online ha presentato un prototipo di assistente AI potenziato, chiamato Project Astra, in grado di conversare fluidamente e interpretare il mondo circostante attraverso i video.

Google però si è tenuta alla larga dall’antropomorfismo, dando al suo assistente un tono più sobrio e robotico. Il mese scorso i ricercatori della divisione AI dell’azienda, DeepMind, hanno pubblicato un lungo documento tecnico intitolato L’etica degli assistenti AI avanzati, in cui sottolineano che l’aumento degli agenti basati sull’intelligenza artificiale e progettati per comportarsi in modo simile alle persone potrebbe causare problemi di ogni tipo, dai rischi per la privacy a nuove forme di dipendenza tecnologica, passando per la creazione di strumenti più potenti di disinformazione e manipolazione. Già oggi, molte persone passano parecchio tempo in compagnia di chatbot o fidanzate AI, e la tecnologia sembra destinata a diventare sempre più coinvolgente.

Prima dell’evento di Google ho avuto modo di parlare con Demis Hassabis, il numero uno di Google Deepmind, che mi ha spiegato che il documento di ricerca della divisione è stato ispirato dalle possibilità emerse con Project Astra. Dobbiamo giocare d’anticipo, considerando la tecnologia che stiamo costruendo, ha detto Hassabis. Dopo gli ultimi annunci di OpenAI, le sue parole sembrano ancora più vere. Durante le recenti dimostrazioni, tuttavia, OpenAI non ha fatto cenno a questi rischi.

Fonte : Wired