OpenAI ha spiegato il motivo per cui non ha ancora rilasciato ufficialmente il suo Voice Engine AI di generazione di testo-audio. Le recenti elezioni e il rischio di deepfake vocali hanno spinto l’azienda a intensificare le misure di sicurezza.
Sul suo sito web, OpenAI ha annunciato politiche volte a migliorare la sicurezza del Voice Engine. L’azienda si impegna a educare il pubblico sul funzionamento del modello, l’utilizzo etico in ricerca e istruzione e le misure di sicurezza associate.
Il Voice Engine, in fase di sviluppo dal 2022, può generare voci umane realistiche basate su brevi clip audio. Anche se è stato testato solo con un gruppo limitato di partner, l’azienda sta valutando attentamente se e come renderlo disponibile al pubblico.
OpenAI ha dichiarato che ridurrà gradualmente l’autenticazione vocale per l’accesso ai conti bancari e implementerà politiche per proteggere le voci individuali dall’abuso dell’IA. Inoltre, intende informare il pubblico sui rischi associati all’IA e aiutare gli utenti a distinguere tra contenuti reali e sintetici.
L’azienda ha anche ammesso che l’integrazione del modello “GPT-4o” nel Voice Engine presenta nuove sfide, come pregiudizi e disinformazione. Sta lavorando attivamente per affrontare queste questioni, collaborando con vari partner e riflettendo sui feedback ricevuti.
Questi sforzi sono stati ulteriormente motivati dalle preoccupazioni espresse da figure di spicco, come il capo dell’IA della Casa Bianca e la Federal Trade Commission degli Stati Uniti. Nonostante i progressi compiuti, permangono ancora preoccupazioni riguardo alla clonazione vocale e all’abuso potenziale delle tecnologie AI.