通過理解自身的行為方式、記憶、偏好等內(nèi)容,復(fù)刻一個(gè)專屬于自己的虛擬化身,實(shí)現(xiàn)打破次元壁的互動(dòng),結(jié)識(shí)好友,獲得陪伴......如今,科幻電影中描繪的場(chǎng)景正走向現(xiàn)實(shí)。
2024年10月14日-18日, GITEX GLOBAL海灣信息技術(shù)博覽會(huì)在迪拜舉辦。在這個(gè)全球范圍頗具影響力的科技盛會(huì)上,新型社交平臺(tái)Soul App攜最新自研的多模態(tài)大模型參展,該模型具備多模態(tài)理解、真實(shí)擬人、文字對(duì)話、語音通話、多語種等特性。在活動(dòng)現(xiàn)場(chǎng),觀眾可以通過數(shù)字裝置,即時(shí)生成3D虛擬數(shù)字分身,通過實(shí)時(shí)動(dòng)作捕捉與還原,體驗(yàn)自然、流暢、沉浸式的多模態(tài)互動(dòng)。
Soul App CTO 陶明表示,“在受全球關(guān)注的科技大會(huì)上,我們期待與來自國(guó)內(nèi)外的創(chuàng)新企業(yè)、科技公司共同交流,展現(xiàn)中國(guó)企業(yè)在社交領(lǐng)域的最新應(yīng)用實(shí)踐和數(shù)字娛樂的創(chuàng)新方案,共同探索社交發(fā)展的新可能。”
3D數(shù)字孿生,虛擬與現(xiàn)實(shí)的創(chuàng)新交互
GITEX GLOBAL至今已舉辦至第44屆,自誕生以來,始終聚焦于以技術(shù)為驅(qū)動(dòng)的創(chuàng)新,吸引了來自大型科技企業(yè)、全球政府、創(chuàng)新初創(chuàng)公司、專業(yè)投資者等的廣泛關(guān)注和參與。目前,GITEX GLOBAL已發(fā)展成為中東地區(qū)規(guī)模最大、最成功的計(jì)算機(jī)通訊及消費(fèi)性電子產(chǎn)品展,同時(shí)也是全球三大IT展之一。
自ChatGPT橫空出世,標(biāo)志著人工智能發(fā)展至新階段,在世界進(jìn)入全面擁抱人工智能的新時(shí)代的當(dāng)下,今年,GITEX GLOBAL 2024規(guī)模再次升級(jí),橫跨兩個(gè)大型場(chǎng)館 —— 迪拜世界貿(mào)易中心和迪拜港,有全球超過6700家科技巨頭和創(chuàng)新公司參展,展示AI領(lǐng)域最具突破性的科技發(fā)展、智能互聯(lián)新發(fā)現(xiàn)、以及來自數(shù)字娛樂、社交、教育、健康等各大領(lǐng)域的應(yīng)用落地標(biāo)桿案例,匯聚最前沿的尖端技術(shù)思潮,引領(lǐng)行業(yè)變革的新風(fēng)向。
作為國(guó)內(nèi)較早將AI引入社交關(guān)系的互聯(lián)網(wǎng)平臺(tái)代表之一,Soul 攜最新自研的多模態(tài)大模型參展GITEX GLOBAL 2024,展示AI技術(shù)積累以及在社交場(chǎng)景的最新落地實(shí)踐。此次也是Soul首次亮相國(guó)際大型展會(huì),大會(huì)上,現(xiàn)場(chǎng)觀眾可以重點(diǎn)體驗(yàn)到Soul集成3D虛擬人能力的多模態(tài)AI交互方案。
為了降低用戶社交壓力,Soul自2016年上線之初便不支持用戶上傳真實(shí)頭像,年輕人通過平臺(tái)提供的捏臉系統(tǒng),自主創(chuàng)造個(gè)性化虛擬形象,在不強(qiáng)調(diào)顏值、地理位置等物理因素的情況下,自在表達(dá),分享熱愛,相遇同好。
2022年,Soul集成AI、渲染和圖像處理等技術(shù),推出自研的NAWA引擎,為用戶創(chuàng)建個(gè)性化的3D社交形象和場(chǎng)景提供技術(shù)加持。基于該引擎,用戶可以自主創(chuàng)作生動(dòng)的虛擬形象,塑造網(wǎng)絡(luò)世界的化身,并能靈活地配合聲音、文字等各種信息,展現(xiàn)每個(gè)人鮮明的個(gè)性,精準(zhǔn)傳遞情緒溫度,在各種虛實(shí)融合的場(chǎng)景中與他人自在交流、互動(dòng),感受全新的社交體驗(yàn)。
集合過往的技術(shù)儲(chǔ)備以及大模型研發(fā)進(jìn)展的突破,現(xiàn)階段,Soul 3D虛擬人能力全面升級(jí),形成了成熟的集成3D虛擬人能力的多模態(tài)AI交互方案——即集合文字、語音、動(dòng)作交互的多模態(tài)大模型方向,實(shí)現(xiàn)更接近人類模式的互動(dòng)體驗(yàn)和更高效、自然、豐富維度的信息傳遞。
在大會(huì)現(xiàn)場(chǎng),參與體驗(yàn)的用戶可以實(shí)現(xiàn)高相似度的3D虛擬人的AI建模,通過包含人臉的90余個(gè)形狀參數(shù)和6個(gè)屬性參數(shù),于幾秒鐘內(nèi),快速在3D世界精細(xì)化還原真實(shí)人臉的特征,打造專屬的虛擬化身。
同時(shí),基于實(shí)時(shí)的人體動(dòng)作識(shí)別、數(shù)字還原以及多模態(tài)對(duì)話交互能力,現(xiàn)場(chǎng)可以實(shí)現(xiàn)3D虛擬人與真人的沉浸式互動(dòng)。
多模態(tài)端到端大模型,超擬人的情感體驗(yàn)
事實(shí)上,包括語言、對(duì)話、3D虛擬人等維度在內(nèi),Soul聚焦于多模態(tài)大模型方向持續(xù)深耕。
在推出智能推薦引擎“靈犀”、以AI算法助力社交關(guān)系的發(fā)現(xiàn)沉淀環(huán)節(jié)后,2020年,Soul正式啟動(dòng)對(duì)AIGC的技術(shù)研發(fā)工作,系統(tǒng)推進(jìn)在智能對(duì)話、語音技術(shù)、3D虛擬人等AIGC關(guān)鍵技術(shù)能力研發(fā)工作,并推動(dòng)AI能力在社交場(chǎng)景的快速落地。
目前,Soul已先后上線了自研語言大模型Soul X,以及語音生成大模型、語音識(shí)別大模型、語音對(duì)話大模型、音樂生成大模型等語音大模型能力。今年6月,Soul還在社交行業(yè)中較早推出了自研端到端全雙工語音通話大模型,具備超低交互延遲、快速自動(dòng)打斷、超真實(shí)聲音表達(dá)和情緒感知理解能力等特點(diǎn),能夠直接理解豐富的聲音世界,支持超擬人化的多風(fēng)格語言,實(shí)現(xiàn)更接近生活日常的交互對(duì)話和“類真人”的情感陪伴體驗(yàn)。
2024年,Soul AI大模型能力整體升級(jí)為了多模態(tài)端到端大模型,支持文字對(duì)話、語音通話、多語種、多模態(tài)理解、真實(shí)擬人等特性。
多模態(tài)端到端大模型的推出標(biāo)志著Soul對(duì)人機(jī)交互體驗(yàn)的創(chuàng)新突破,同時(shí),從文字、語音到視覺的模態(tài)升級(jí),也意味著交互方式的顛覆式改變。
例如,Soul已基于自研AI能力推出了“數(shù)字分身”功能,用戶可以直接授權(quán)平臺(tái)基于聊天記錄、發(fā)帖內(nèi)容,或者以自定義方式,設(shè)置數(shù)字分身的形象和特征,在表征層(形象、聲音、文字風(fēng)格),身份層(社交關(guān)系、長(zhǎng)期記憶、人設(shè)信息)和認(rèn)知層(決策、觀點(diǎn)、偏好),使數(shù)字分身達(dá)到最大程度復(fù)刻真人的效果。而“數(shù)字分身”不僅能實(shí)現(xiàn)更個(gè)性化、更千人千面的智能回復(fù)推薦,幫助用戶進(jìn)行社交破冰,還能在助力人設(shè)搭建和認(rèn)知決策中,提升社交溝通效率。
接下來,通過最新集成的3D虛擬人能力和多模態(tài)端到端大模型的AI交互方案,Soul用戶自主打造的3D虛擬人,可以作為數(shù)字世界的多模態(tài)全能助手,在平臺(tái)群聊派對(duì)、瞬間廣場(chǎng)等豐富社交場(chǎng)景中全面賦能用戶的關(guān)系發(fā)現(xiàn)、建立、沉淀環(huán)節(jié),拓展新關(guān)系的同時(shí),提供高質(zhì)量、趣味性、沉浸式的人機(jī)交互體驗(yàn),反饋真實(shí)、自然的情感陪伴。
Soul App CTO陶明表示,“作為天然的流量聚集地和交互入口,社交被視為AI率先落地的最佳場(chǎng)景之一。我們將圍繞用戶的實(shí)際社交需求和具體社交場(chǎng)景,持續(xù)加大對(duì)AI技術(shù)的投入,給用戶帶來長(zhǎng)期的可持續(xù)的價(jià)值。預(yù)計(jì)今年年底,Soul多模態(tài)端到端大模型將再次升級(jí),推出全雙工視頻通話能力,讓用戶可以真正便捷、自然的體驗(yàn)到包括文字、語音、視覺在內(nèi)的多模態(tài)創(chuàng)新交互。”
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )