Siete curiosi di capire come funziona Advanced voice mode? Ecco cosa c’è da sapere sul lancio della modalità vocale di ChatGPT e le nostre prime impressioni.
Quando sarà disponibile
OpenAI ha distribuito la sua modalità vocale avanzata a un gruppo ristretto di utenti alla fine di luglio. L’azienda prevede di attivare la funzione per tutti gli abbonati in autunno, anche se il portavoce di OpenAI Niko Felix non ha fornito ulteriori dettagli sulla tempistica.
La possibilità di condividere il proprio schermo e i video era una parte fondamentale della demo originale, ma non è disponibile nel test alfa. OpenAI prevede di aggiungere successivamente le capacità, ma non è chiaro quando.
Se siete abbonati a ChatGPT Plus, riceverete un’email da OpenAI quando Advanced voice mode sarà disponibile. Dopo averla attivata nel vostro account, potrete passare dalla modalità Standard a quella Avanzata nella parte superiore della schermata dell’app. Ho testato la versione alpha sia su un iPhone e che su un Galaxy Fold.
Le prime impressioni
Dopo la prima ora, ho scoperto che mi piace interrompere ChatGPT. Anche se nella vita reale non sarebbe il massimo della cortesia, avere la possibilità di bloccare il chatbot a metà frase per richiedere un output diverso è una funzione che si fa notare e che personalmente mi sembra un netto miglioramento.
Gli early user che si sono entusiasmati per le demo di OpenAI potrebbero essere frustrati dall’accesso a una versione della modalità più limitata del previsto. Per esempio, manca totalmente la funzione vista nella dimostrazione dell’azienda che permetteva all’AI di cantare, con ninnenanne sussurrate e voci multiple che tentano di armonizzarsi.
Nella scheda di GPT-4o, OpenAI sostiene che questa barriera, che potrebbe essere temporanea, è stata implementata per scongiurare le violazioni del copyright. Durante i test, la modalità vocale avanzata di ChatGPT ha rifiutato diverse richieste dirette di cantare, anche se il chatbot ha intonato brani senza senso quando gli è stato chiesto di fornire risposte non verbali.
Il che ci porta all’aspetto inquietante della nuova funzione. Durante le mie interazioni più lunghe con la versione alfa, in sottofondo è risuonato più volte un rumore bianco, che mi ha ricordato il ronzio minaccioso di una lampadina solitaria che illumina un seminterrato buio. Mentre cercavo di ottenere l’effetto sonoro di un palloncino, Advanced voice mode ha prodotto un forte schiocco seguito da un inquietante rantolo che mi ha fatto venire i brividi (lo potete ascoltare qui sotto).
Niente di quello che ho sperimentato è però paragonabile alle cose folli che hanno sentito i team di OpenAI durante i test. In “rari casi“, il modello GPT-4o si è discostato dalla voce assegnata e ha iniziato a imitare il tono e il modo di parlare dell’utente.
Fonte : Wired