Quattro mesi dopo la presentazione iniziale, OpenAI offre ora la sua nuova interfaccia vocale, chiamata “ChatGPT Advanced Voice Mode”, a tutti gli abbonati ai piani ChatGPT Plus e Team. L’accesso sarà gradualmente distribuito e inizialmente disponibile solo negli Stati Uniti.
La prossima settimana, OpenAI prevede di estendere questa modalità anche agli abbonati dei piani Edu ed Enterprise. Inoltre, è stata introdotta la possibilità di memorizzare “istruzioni personalizzate” e “memoria” per il comportamento dell’assistente vocale, simile alle funzionalità già lanciate per la versione testuale.
Oggi vengono anche presentate cinque nuove voci: Arbor, Maple, Sol, Spruce e Vale, che si aggiungono alle quattro voci già disponibili (Breeze, Juniper, Cove ed Ember). Gli utenti potranno interagire con ChatGPT usando la voce, rendendo l’esperienza di chat più naturale.
OpenAI ha migliorato l’accuratezza degli accenti nelle lingue straniere e ha reso la conversazione più fluida. La nuova modalità vocale avrà anche un design rinnovato con una sfera blu animata. Attualmente, la modalità è disponibile solo per il modello GPT-4o.
Questi aggiornamenti sono parte di una tendenza più ampia, in cui le aziende cercano di rendere l’interazione vocale con assistenti virtuali sempre più simile a quella umana. Altri sviluppatori, come Hume AI e Google, stanno introducendo funzionalità simili per migliorare l’esperienza degli utenti.
Tuttavia, l’introduzione delle voci AI ha suscitato qualche controversia, in particolare per somiglianze tra le voci e attori famosi. OpenAI ha ribadito che non intende imitare voci di personaggi noti e ha limitato gli utenti a nove voci specifiche.
Dopo alcuni ritardi, OpenAI è fiduciosa di aver testato a sufficienza la nuova modalità vocale per il rilascio. L’azienda ha lavorato a stretto contatto con governi e esperti per garantire la sicurezza della tecnologia.