強大硬件+廣泛生態(tài)+模型優(yōu)化,英特爾助力讓更多人暢享AI加速體驗

以第12代、第13代英特爾® 酷睿™處理器和英特爾銳炫™A系列顯卡為代表的英特爾多款客戶端芯片均能提供強勁性能,以滿足生成式AI(AIGC)對于高算力的需求,在此基礎上,英特爾還通過軟件生態(tài)的構建和模型優(yōu)化,進一步推動新興的生成式AI場景在個人電腦的落地,廣泛覆蓋輕薄本、全能本、游戲本等。目前,英特爾正與PC產(chǎn)業(yè)眾多合作伙伴通力合作,致力于讓廣大用戶在日常生活和工作中,通過AI的輔助來提高效率,進而帶來給革新性的PC體驗。

英特爾積極擁抱AI社區(qū),基于OpenVINO PyTorch后端的方案,通過Pytorch API讓社區(qū)開源模型能夠很好地運行在英特爾的客戶端處理器、集成顯卡、獨立顯卡和專用AI引擎上。以圖形視覺領域為例, Stable Diffusion的實現(xiàn)Automatic1111 WebUI,已經(jīng)能通過上述方式,在英特爾客戶端平臺的CPU和GPU(包括集成顯卡和獨立顯卡)上運行FP16精度的模型,用戶可以在文字生成圖片、圖片生成圖片以及局部修復等功能上獲得良好的使用體驗。

不僅如此,英特爾通過模型優(yōu)化,降低了模型對硬件資源的需求,進而提升了模型的推理速度,讓社區(qū)開源模型能夠很好地運行在個人電腦上。以大語言模型為例,英特爾通過第13代英特爾酷睿處理器XPU的加速、low-bit量化以及其它軟件層面的優(yōu)化,讓最高達160億參數(shù)的大語言模型,通過BigDL-LLM框架運行在16GB及以上內(nèi)存容量的個人電腦上。這也彰顯了英特爾能夠適應當下快速發(fā)展的大語言模型生態(tài),快速對接新興模型,并兼容目前HuggingFace上的Transformers模型。已經(jīng)驗證過的模型包括但不限于:LLAMA/LLAMA2、ChatGLM/ChatGLM2、MPT、Falcon、MOSS、Baichuan、QWen、Dolly、RedPajama、StarCoder、Whisper等。此外,英特爾還提供了易用的API接口(Transformers、LangChain),并支持Windows、Linux的操作系統(tǒng)。

英特爾的下一代處理器Meteor Lake具備獨特的分離式模塊架構的優(yōu)勢,為PC用戶提供了以AI驅(qū)動的新功能,包括像Adobe Premiere Pro中的自動重新構圖和場景編輯檢測等多媒體功能,并實現(xiàn)更有效的機器學習加速。英特爾與PC產(chǎn)業(yè)合作伙伴此刻正站在旅程的起點,向著規(guī)?;瘧肁I加速轉(zhuǎn)型的方向前行。隨著英特爾后續(xù)幾代產(chǎn)品進一步擴展,規(guī)模和數(shù)量的大幅增長將讓數(shù)億人輕松享受AI加速體驗,并實現(xiàn)更優(yōu)的智能協(xié)作、更快的處理速度和更強的功能特性實現(xiàn)前所未有的體驗變革。

配置信息及法律聲明:

©英特爾公司版權所有。英特爾、英特爾標識以及其他英特爾商標是英特爾公司或其子公司在美國和/或其他國家的商標。

1. Stable Diffusion為Stability AI公司軟件,英特爾并不控制或?qū)徲嫷谌杰浖畔ⅰ?/p>

2. LLAMA/LLAMA2、ChatGLM/ChatGLM2、MPT、Falcon、MOSS、Baichuan、QWen、Dolly、RedPajama、StarCoder、Whisper為AI模型,英特爾并不控制或?qū)徲嫷谌叫畔ⅰ?/p>

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )