大模型落地,模型只是一部分

4月8日消息,大模型掀起的AI熱潮已經(jīng)涌動了一年多,在國內(nèi),2024年被認(rèn)為是大模型落地元年。

“絕大部分客戶在看到大模型的驚艷表現(xiàn)時,下一個問題就是:如何將大模型與我的業(yè)務(wù)相結(jié)合?”亞馬遜云科技大中華區(qū)產(chǎn)品部總經(jīng)理陳曉建在談及生成式AI落地時提道。

“大模型如何有效落地應(yīng)用”已經(jīng)成為行業(yè)關(guān)注的重中之重。

一方面,AGI擁躉者堅守著一個超強(qiáng)模型解決所有的理想,另一方面,更多企業(yè)已經(jīng)務(wù)實(shí)的開始“具體問題具體分析”的將大模型應(yīng)用到細(xì)分業(yè)務(wù)場景中。

在大模型落地應(yīng)用這條路上,亞馬遜云科技認(rèn)為“沒有一個模型能夠適用于所有場景”,而且,“大模型落地應(yīng)用,模型本身只是應(yīng)用落地的一部分”。

近日,亞馬遜云科技的中國技術(shù)專家也分享了大模型落地的實(shí)踐經(jīng)驗(yàn)和思考。一起來看看這這家行業(yè)巨頭在生成式AI技術(shù)落地應(yīng)用方面的探索。

沒有一個模型能夠適用于所有場景

“亞馬遜云科技與眾多客戶的合作體會中發(fā)現(xiàn),雖然大模型的能力非常強(qiáng),但是每個企業(yè)的場景千變?nèi)f化,對大模型的使用必須經(jīng)歷定制化調(diào)優(yōu)和與自身數(shù)據(jù)結(jié)合的過程。如果簡單地將大模型拿來原封不動地使用,很可能未必達(dá)到最好的效果?!瓣悤越ū硎?。

因而,陳曉建稱:”我們建議采用循序漸進(jìn)、從簡單到復(fù)雜的思路,最初選擇一個容易落地且滿足業(yè)務(wù)要求的場景。這個場景從最初的簡單到復(fù)雜,逐漸了解模型的能力,然后再進(jìn)行下一步,這樣會取得更好的效果。“

我們一直強(qiáng)調(diào),沒有一個模型能夠適用于所有場景。從實(shí)際的例子來看,不同模型擅長的場景和能力實(shí)際上各不相同,所以企業(yè)需要為自己的場景選擇適合的模型。

據(jù)介紹,目前Amazon Bedrock上提供多種應(yīng)對不同場景的模型能力,包括文生圖模型Stable Diffusion、Meta的Llama模型、亞馬遜自研的Amazon Titan模型、Mistral 7B模型以及Anthropic最新發(fā)布的Claude 3的三款模型——具有幾乎即時響應(yīng)能力且最緊湊的 Claude 3 Haiku;在技能與速度之間達(dá)到理想平衡的 Claude 3 Sonnet;以及為處理高度復(fù)雜任務(wù)設(shè)計的最智能模型 Claude 3 Opus等等。

“它們的能力、性能和價格都有所不同??蛻艨梢愿鶕?jù)需要選擇最適合自己業(yè)務(wù)需求的模型平臺?!标悤越◤?qiáng)調(diào)。

另外,陳曉建還提到一類客戶:有些客戶希望生成自己的模型。

“有客戶使用亞馬遜云科技的底層云資源和算力去做自研模型,而有些客戶則選擇在Amazon Bedrock上使用已經(jīng)訓(xùn)練好了的模型結(jié)合客戶的私有數(shù)據(jù)進(jìn)行定制化調(diào)整,進(jìn)行模型微調(diào)或預(yù)訓(xùn)練?!?/p>

談及大模型應(yīng)用落地,陳曉建再次強(qiáng)調(diào):“對于客戶而言,充分了解業(yè)務(wù)后選擇合適的切入點(diǎn)和模型工具至關(guān)重要?!?/p>

模型,只是應(yīng)用的一部分

亞馬遜云科技大中華區(qū)數(shù)據(jù)分析與生成式AI產(chǎn)品總監(jiān)崔瑋則進(jìn)一步認(rèn)為:“模型僅是客戶企業(yè)應(yīng)用的一部分,大模型應(yīng)用落地必然需要許多組件來實(shí)現(xiàn)?!?/p>

例如,Amazon Bedrock的Knowledge Bases知識庫功能,客戶在做企業(yè)知識庫時,模型可能僅是服務(wù)的一部分,還需要利用本地私有數(shù)據(jù)。

“這也是Claude 3等大模型如此強(qiáng)大,為什么亞馬遜云科技在服務(wù)客戶落地大模型應(yīng)用時還要加Amazon Bedrock這一層的原因”,陳曉建闡釋道:

大模型在企業(yè)落地應(yīng)用這中間有兩個重要因素,即模型能力和真正的運(yùn)營生產(chǎn)之間,需要增加很多輔助能力。

Amazon Bedrock提供一系列除了大模型以外的能力。首先是Provisioned Throughput(預(yù)置吞吐量)。第二點(diǎn),就是模型微調(diào)(fine-tunning)能力。還有類似Guardrails的能力,能夠全面監(jiān)管大模型使用情況,通過適當(dāng)?shù)呐渲脕斫档突糜X現(xiàn)象的產(chǎn)生,同時提供全方位日志。

要使用大模型,必須有一定的生產(chǎn)結(jié)合。生產(chǎn)結(jié)合意味著需要擁有大量的業(yè)務(wù)數(shù)據(jù),需要去與大模型打通。

在這個過程中,客戶可以自己做一個 RAG(Retrieval-Augmented Generation檢索增強(qiáng)生成) ,需要將客戶自己的知識庫與大模型做結(jié)合。目前,業(yè)界通常使用向量數(shù)據(jù)庫等方式,將客戶的知識庫通過向量的方式存儲起來。亞馬遜云科技也提供了豐富的向量數(shù)據(jù)庫選擇。

大模型非常重要,非常核心,然而僅靠大模型對企業(yè)客戶的生產(chǎn)是遠(yuǎn)遠(yuǎn)不夠的。企業(yè)需要一系列周邊能力幫助實(shí)現(xiàn)正確、合理、安全、高效地使用大模型。這就是亞馬遜云科技一系列產(chǎn)品所提供的價值所在。

事實(shí)上,在去年年底的亞馬遜云科技re:Invent大會上,亞馬遜云科技在生成式AI領(lǐng)域的三層架構(gòu)已經(jīng)正式亮相。

這三層包括:最底層,亞馬遜云科技為客戶提供基礎(chǔ)算力,包括Nvidia最新推出的G200芯片、自研芯片Amazon Trainium 和 Amazon Inferentia等。

中間層,也就是隨著生成式AI出來的一些全新的產(chǎn)品,例如Amazon Bedrock,通過一個模型平臺支持多種技術(shù)大模型。

上層與大模型應(yīng)用結(jié)合,例如推出的Amazon Q,并與BI應(yīng)用Amazon QuickSight、智能客服的產(chǎn)品Amazon Connect、編程平臺Amazon CodeWhisperer等有效結(jié)合,支持不同客戶的業(yè)務(wù)需求。

通過這三層,亞馬遜云科技希望給不同的客戶需求提供不同層級的產(chǎn)品來支持客戶的業(yè)務(wù)。

陳曉建最后也強(qiáng)調(diào):“即使有最完善的數(shù)據(jù)基礎(chǔ)、可以選擇最好的工具,但是每個客戶的場景依然是千變?nèi)f化的。為了能將最新的云的生產(chǎn)力與業(yè)務(wù)相結(jié)合,企業(yè)需要專業(yè)的團(tuán)隊來做業(yè)務(wù)支持。在生成式AI時代,我們依然會通過專業(yè)團(tuán)隊為各行業(yè)用戶的生成式AI應(yīng)用保駕護(hù)航?!?/p>

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2024-04-08
大模型落地,模型只是一部分
4月8日消息,大模型掀起的AI熱潮已經(jīng)涌動了一年多,在國內(nèi),2024年被認(rèn)為是大模型落地元年。“絕大部分客戶在看到大模型的驚艷表現(xiàn)時,下一個問

長按掃碼 閱讀全文