9月25日消息,OpenAI周二宣布,ChatGPT高級語音模式(Advanced Voice Mode)正式上線,向所有付費訂閱用戶開放。這項功能使ChatGPT的語音更自然。
OpenAI將首先向ChatGPT的Plus和Teams客戶推出,企業(yè)和教育客戶將于下周獲使用權(quán)限。
ChatGPT還將推出五種不同風格的新聲音,用戶可以試用: Arbor、Maple、Sol、Spruce 和 Vale。這使得ChatGPT的可選聲音總數(shù)達到了9個,另外四種是Breeze、Juniper、Cove 和 Ember。
OpenAI還增加了自定義指令、記憶、改進的口音等新功能,ChatGPT還可以用50多種語言說, “對不起,我來晚了”。
OpenAI原計劃6月底推出此功能,但因為需要更多時間來準備,推遲發(fā)布。
ChatGPT的高級語音模式能夠理解并回應(yīng)情緒和非語言暗示,讓我們更接近與AI進行實時、自然的對話。OpenAI在5月份首次展示了GPT-4o,以及這種超現(xiàn)實的“高級語音模式”。
GPT-4o能在232毫秒內(nèi)對音頻輸入做出反應(yīng),平均反應(yīng)時間為320毫秒,這與人類在對話中的反應(yīng)時間相近。高級語音模式不需要像當前的ChatGPT語音模式那樣將語音轉(zhuǎn)換為文本,再轉(zhuǎn)換成語音,從而降低了交互延遲。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )