Dai test condotti da OpenAI sulla sua nuova IA capace di parlare come un essere umano – una funzione annunciata lo scorso maggio e poi rimandata all’autunno – è emerso il rischio che gli utenti possano stabilire una connessione emotiva profonda con ChatGpt.
Gpt-4o può rispondere agli input audio in appena 232 millisecondi, con una media di 320 millisecondi che è simile al tempo di risposta umano in una conversazione.
Questo vuol dire che quando la nuova “voice mode” sarà definitivamente aperta al pubblico – stiamo parlando di una versione più potente di quella che si può usare già ora sulla app di ChatGpt – il futuro descritto dal film “Her”, in cui un uomo si innamora di una IA che conversa con lui giorno e notte, sarà decisamente a portata di mano.
Anzi, di voce.
I rischi di antropomorfizzazione – il processo di attribuire caratteristiche e comportamenti umani a entità non umane, come un modello di intelligenza artificiale – sono accentuati dalle capacità audio di GPT-4o, che consentono una conversazione naturale con il modello, secondo lo studio effettuato da OpenAI.
L’azienda di San Francisco ha notato che gli utenti, conversando con l’IA, hanno usato un linguaggio e delle espressioni che lasciano intendere il rischio, potenziale, di formazione di un legame profondo.
Per esempio le persone hanno pronunciato frasi come: “Questo è il nostro ultimo giorno insieme”.
Alcuni utenti di ChatGpt sono abituati a essere cortesi con l’IA, e scrivono regolarmente “per favore” e “grazie” nei loro prompt.
Ma una chat di testo, sebbene possa sfociare in connessioni intime, è sicuramente meno coinvolgente di una conversazione a voce, soprattutto se un’intelligenza artificiale è capace – come promette OpenAI – di sospirare, ridacchiare, assumere un tono allegro, scherzoso o triste a seconda di ciò di cui si parla.
Per OpenAI c’è il rischio, sempre potenziale, che la nuova funzione vocale possa ridurre, negli utenti che la utilizzano, la necessità di interagire con gli altri esseri umani.
Il che può essere un vantaggio per coloro che soffrono di solitudine, ma potrebbe influire negativamente sulle “relazioni sane”.
OpenAI sostiene di aver “mitigato” i rischi legati alla IA che fa parlare ChatGpt, come la possibilità di generare contenuti erotici, violenti oppure di produrre suoni inadeguati – spari di pistola – o di infrangere il copyright (alle su voci virtuali OpenAI impedirtà, per ora, di cantare).
Ma uno degli effetti “collaterali” più inquietanti di questa tecnologia è che, in alcuni casi, ha clonato per sbaglio la voce dell’utente e l’ha usata per rispondere.
Fonte : Repubblica