9月24日消息,聲網正式發(fā)布aPaaS “靈動會議”,該產品采用RTE Core 和 AI Core 的雙引擎深度融合,能夠靈活適配多種會議場景業(yè)務需求。
基于聲網自研的AI Agent 框架,“靈動會議”能夠兼容市場上主流的 ASR(自動語音識別)、LLM(大語言模型)和 TTS(文本轉語音)技術,具備Workflow編排能力。尤其是聲網的 AI 框架支持多模態(tài)大模型的集成,這意味著企業(yè)不僅可以使用單一模型(如語音識別模型),還可以將多模態(tài)的大模型能力(如圖像、音頻、文本處理等)融合到一起,滿足更復雜的會議場景需求。
同時,通過“靈動會議”產品底層的AI框架,開發(fā)者可以高效地集成會前、會中、會后場景的多種 AI 功能,如AI會議紀要、實時翻譯、AI助手等,滿足實時互動和會議場景的需求。
開發(fā)者還能通過“靈動會議”的產品架構將這些 AI 功能獨立對外賦能其他產品,這意味著企業(yè)不僅能在會議場景中實現(xiàn)智能化升級,還可以通過靈動會議的RTC 與 SIP 網關互通功能,應用于如 AI 電話客服等場景,大幅降低客服成本,提升運營效率。
在集成方式上,“靈動會議”采用aPaaS低代碼設計,通過提供模塊化的API、UI組件和即插即用的集成功能,使得開發(fā)者可以在較短的時間內完成集成,無需進行大量的底層開發(fā)。如果UI不能滿足,“靈動會議”可提供多層次API接口與插件機制,支持基于SDK Core層和 RTE PaaS 層的定制,滿足多場景需求。
“靈動會議”支持SFU+MCU 混合架構?!癕CU 模塊與 SFU 模塊直接集成,拋棄了傳統(tǒng)的網關架構,通過裸流通信技術,實現(xiàn)終端設備與云端的直接互通,解決了網關集成時的畫質損失問題,并且混合架構支持 MCU 上的多個硬件終端與云端 SFU 的軟終端之間的多畫面靈活組合,用戶可以自主選擇多個視頻流進行合成,不再局限于畫中畫模式。
此外,在部署方式上,“靈動會議”支持多種部署模式,包括私有化、混合云、公有云等,能夠靈活適應企業(yè)的不同安全和合規(guī)要求。同時,“靈動會議”還支持混合云和公有云的無縫備份與切換,確保業(yè)務的連續(xù)性和數(shù)據(jù)的安全性。
會議系統(tǒng)正在經歷從“信息通道”向“智能決策引擎”的轉變,過去的會議系統(tǒng)只承擔信息傳遞的功能,而如今,AI 賦能為會議提供了更多智能化的支持。那么,AI浪潮下,應該如何重塑會議與協(xié)作體驗?
在談到AI為視頻會議帶來的改變時,會暢通訊產品總監(jiān)王暉提到,利用 AI 為企業(yè)客戶提供定制化的功能,在會前、會中、會后都加入AI,讓會議溝通更加有效率,開會體驗更佳??七_-摩云視訊銷售總監(jiān)俞中則認為,隨著底層音視頻能力與AI自身學習能力的提升,視頻會議的整體效果會演變得更加優(yōu)秀,比如沉浸式的3D場景將會是 AI 大顯身手的方向。
聲網數(shù)字化會議解決方案負責人尚敬超認為,“AI 技術會讓視頻會議脫離工具屬性,真正融入生活,例如原本成本較高的同聲傳譯場景,通過 AI 也可以讓多語言視頻會議的成本進一步壓縮,降低所有人的使用門檻?!?/p>
關于會議AI 的想象空間,京東科技協(xié)同辦公業(yè)務部產品經理曾冠認為,“通過 AI 和穿戴設備,未來的溝通方式將從信息溝通變?yōu)椤八娂此谩?,幫助用戶快速獲取想得到的內容,從而更好的服務于工作。”尚敬超認為,“未來的會議主要是AI參與,人只需要最終下一個指令做決策,從而擺脫無窮無盡低效會議的束縛。而這背后,實時性和輔助決策也是最重要的兩點?!保ㄖ苄“祝?/p>
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )