6月9日,為期兩天的“北京智源大會”在中關(guān)村國家自主創(chuàng)新示范區(qū)會議中心成功開幕??萍疾扛辈块L吳朝暉和北京市副市長于英杰出席開幕式并致辭。
北京智源大會是智源研究院主辦的年度國際性人工智能高端專業(yè)交流活動,定位于“AI內(nèi)行頂級盛會”,以“國際視野、技術(shù)前沿、思想激蕩、洞見未來”為特色,已連續(xù)舉辦5屆。今年,大會邀請到了圖靈獎得主Geoffrey Hinton、Yann LeCun、Joseph Sifakis和姚期智,張鈸、鄭南寧、謝曉亮、張宏江、張亞勤等院士,加州大學(xué)伯克利分校人工智能系統(tǒng)中心創(chuàng)始人Stuart Russell,麻省理工學(xué)院未來生命研究所創(chuàng)始人Max Tegmark,OpenAI首席執(zhí)行官Sam Altman等200余位人工智能頂尖專家參會,嘉賓將以國際視角探討通用人工智能發(fā)展面臨的機(jī)遇與挑戰(zhàn)。
開幕式由智源研究院理事長張宏江主持。
智源研究院院長黃鐵軍發(fā)布《2023智源研究院進(jìn)展報告》,并發(fā)布了全面開源的“悟道3.0”系列大模型及算法,報告了在高精度生命模擬和有機(jī)大分子建模方面的最新進(jìn)展。
成果發(fā)布方面,繼2021年悟道大模型項目連創(chuàng)“中國首個+世界最大”紀(jì)錄之后,智源 “悟道3.0 ”進(jìn)入全面開源新階段,帶來一系列領(lǐng)先成果:“悟道·天鷹”(Aquila)語言大模型系列、天秤(FlagEval)開源大模型評測體系與開放平臺,“悟道 · 視界”視覺大模型系列,以及一系列多模態(tài)模型成果。
智源大模型系列全面開源
發(fā)布語言、視覺、多模態(tài)等領(lǐng)先成果
智源研究院是國內(nèi)最早進(jìn)行大模型研究的科研機(jī)構(gòu)之一,自2020年10月啟動大模型研發(fā)工作,發(fā)展至今已實現(xiàn)了多個率先:
l 率先匯集頂尖 AI 學(xué)者,「智源學(xué)者」開啟大模型立項探索
l 率先組建大模型研究團(tuán)隊,成為日后中國大模型研究主力
l 率先預(yù)見「人工智能大模型時代到來」
l 率先發(fā)布「悟道」大模型項目,連創(chuàng)「中國首個+世界最大」紀(jì)錄
l 率先開啟大模型測評旗艦項目,助力大模型研究發(fā)展
l 率先倡導(dǎo)大模型開源開放,發(fā)布 FlagOpen 大模型技術(shù)開源系統(tǒng)
l 率先構(gòu)建大模型學(xué)術(shù)生態(tài),智源大會+智源社區(qū)成為大模型研討高點陣地
據(jù)黃鐵軍介紹,在2021年3月,悟道1.0發(fā)布會上,智源研判人工智能已經(jīng)從“大煉模型”轉(zhuǎn)變?yōu)?ldquo;煉大模型”的新階段,從此,“大模型”這個概念進(jìn)入公眾視野。
至于何為大模型?他認(rèn)為需要具備三個條件:一是規(guī)模要大,參數(shù)達(dá)百億規(guī)模以上;二是涌現(xiàn)性,能夠產(chǎn)生預(yù)料之外的新能力;三是通用性,不限于專門問題或領(lǐng)域,能夠處理多種不同的任務(wù)。
悟道系列模型已發(fā)展到“悟道3.0”版本,涵蓋語言、視覺、多模態(tài)等基礎(chǔ)大模型,現(xiàn)在已全面開源。
1. “悟道·視界”視覺大模型系列,實現(xiàn)六項國際領(lǐng)先技術(shù)突破,點亮通用視覺曙光。
“悟道·視界”系統(tǒng)化解決了當(dāng)前計算機(jī)視覺領(lǐng)域的一系列瓶頸問題,包括任務(wù)統(tǒng)一、模型規(guī)?;约皵?shù)據(jù)效率等,包括:
l 在多模態(tài)序列中補全一切的多模態(tài)大模型 Emu
l 最強十億級視覺基礎(chǔ)模型 EVA
l 一通百通、分割一切的視界通用分割模型
l 首創(chuàng)上下文圖像學(xué)習(xí)技術(shù)路徑的通用視覺模型Painter
l 性能最強開源CLIP模型 EVA-CLIP
l 簡單prompt(提示)即可視頻編輯的 vid2vid-zero 零樣本視頻編輯技術(shù)
多模態(tài)大模型 Emu接受多模態(tài)輸入、產(chǎn)生多模態(tài)輸出。通過學(xué)習(xí)圖文、交錯圖文、交錯視頻文本等海量多模態(tài)序列,實現(xiàn)在圖像、文本和視頻等不同模態(tài)間的理解、推理和生成。訓(xùn)練完成后,Emu 能在多模態(tài)序列的上下文中補全一切,實現(xiàn)多輪圖文對話、視頻理解、精準(zhǔn)圖像認(rèn)知、文圖生成、多模態(tài)上下文學(xué)習(xí)、視頻問答和圖圖生成等多模態(tài)能力。
EVA為當(dāng)前最強十億級視覺基礎(chǔ)模型,通過將語義學(xué)習(xí)和幾何結(jié)構(gòu)學(xué)習(xí)這兩大解決視覺問題的關(guān)鍵點進(jìn)行結(jié)合,讓視覺模型的通用性更強,目前EVA在ImageNet分類、COCO檢測分割、Kinetics視頻分類等廣泛的視覺感知任務(wù)中取得當(dāng)時最強性能。
多模態(tài)圖文預(yù)訓(xùn)練大模型EVA-CLIP是當(dāng)前性能最強的開源CLIP模型。EVA-CLIP基于視覺基礎(chǔ)模型EVA研發(fā),去年發(fā)布的EVA-CLIP 1B 版本,今年才被Meta在5月份剛發(fā)布的DINOv2模型追平。在今年年初發(fā)布的EVA-CLIP 5B版本創(chuàng)造了零樣本學(xué)習(xí)性能新高度,超越此前最強的OpenCLIP模型,在ImageNet 1K數(shù)據(jù)集上零樣本達(dá)到最高82%的準(zhǔn)確率。
Painter通用視覺模型首創(chuàng)「上下文圖像學(xué)習(xí)」技術(shù)路徑,圖像理解圖像、圖像解釋圖像,圖像輸出圖像:將自然語言處理中的上下文學(xué)習(xí)概念引入視覺模型,首創(chuàng)“上下文圖像學(xué)習(xí)”技術(shù)路徑,將“以視覺為中心”作為建模核心思想。目前Painter模型可完成7種主流視覺任務(wù),性能相比國際同類模型具有11%-25%的性能提升。
一通百通,分割一切的視界通用分割模型,是首個利用視覺提示(prompt)完成任意分割任務(wù)的通用視覺模型,一通百通、分割一切。從影像中分割出各種各樣的對象,是視覺智能的關(guān)鍵里程碑。今年年初,智源視界分割模型與Meta 的 SAM 模型同時發(fā)布,點亮通用視覺曙光。
簡單prompt(提示)即可視頻編輯的 vid2vid-zero 零樣本視頻編輯技術(shù),首次在無需額外視頻訓(xùn)練的情況下,利用注意力機(jī)制動態(tài)運算的特點,結(jié)合現(xiàn)有圖像擴(kuò)散模型,實現(xiàn)可指定屬性的視頻編輯。
2. 悟道·天鷹(Aquila)語言大模型系列+天秤(FlagEval)評測體系,打造大模型能力與評測標(biāo)準(zhǔn)雙標(biāo)桿
為推動大模型在產(chǎn)業(yè)落地和技術(shù)創(chuàng)新,智源研究院發(fā)布“開源商用許可語言大模型系列+開放評測平臺” 2 大重磅成果,打造“大模型進(jìn)化流水線”,持續(xù)迭代、持續(xù)開源開放。
“悟道·天鷹(Aquila)”開源商用許可語言大模型系列
悟道·天鷹Aquila 語言大模型是首個具備中英雙語知識、支持商用許可協(xié)議、國內(nèi)數(shù)據(jù)合規(guī)需求的開源語言大模型。
悟道·天鷹Aquila 語言大模型是在中英文高質(zhì)量語料基礎(chǔ)上從 0 開始訓(xùn)練,通過數(shù)據(jù)質(zhì)量的控制、多種訓(xùn)練的優(yōu)化方法,實現(xiàn)在更小的數(shù)據(jù)集、更短的訓(xùn)練時間,獲得比其它開源模型更優(yōu)的性能。
“悟道·天鷹”的開源屬于一系列套餐,包括Aquila·基礎(chǔ)模型、AquilaChat對話模型與AquilaCode(文本-代碼)生成模型。
Aquila基礎(chǔ)模型(7B、33B)在技術(shù)上繼承了 GPT-3、LLaMA 等的架構(gòu)設(shè)計優(yōu)點,替換了一批更高效的底層算子實現(xiàn)、重新設(shè)計實現(xiàn)了中英雙語的 tokenizer,升級了 BMTrain 并行訓(xùn)練方法,在Aquila的訓(xùn)練過程中實現(xiàn)了比 Magtron+DeepSpeed ZeRO-2將近8倍的訓(xùn)練效率。
AquilaChat對話模型(7B、33B)支持流暢的文本對話及多種語言類生成任務(wù);通過定義可擴(kuò)展的特殊指令規(guī)范,實現(xiàn)AquilaChat對其它模型和工具的調(diào)用,且易于擴(kuò)展。例如,調(diào)用智源開源的 AltDiffusion 多語言文圖生成模型,實現(xiàn)了流暢的文圖生成能力。配合智源 InstructFace 多步可控文生圖模型,它還可以輕松實現(xiàn)對人臉圖像的多步可控編輯。
圖:多輪對話
圖:高考作文生成
圖:文圖生成
圖:多步可控人臉編輯
AquilaCode-7B “文本-代碼”生成模型基于Aquila-7B強大的基礎(chǔ)模型能力,以小數(shù)據(jù)集、小參數(shù)量,實現(xiàn)高性能,是目前支持中英雙語的、性能最好的開源代碼模型,經(jīng)過高質(zhì)量過濾,使用有合規(guī)開源許可的訓(xùn)練代碼數(shù)據(jù)進(jìn)行訓(xùn)練。
此外,AquilaCode-7B 分別在英偉達(dá)和國產(chǎn)芯片上完成了代碼模型的訓(xùn)練,并通過對多種架構(gòu)的代碼+模型開源,推動芯片創(chuàng)新和百花齊放。
圖:文本-代碼生成
天秤(FlagEval)大模型評測體系及開放平臺,旨在建立科學(xué)、公正、開放的評測基準(zhǔn)、方法、工具集,協(xié)助研究人員全方位評估基礎(chǔ)模型及訓(xùn)練算法的性能,同時探索利用AI方法實現(xiàn)對主觀評測的輔助,大幅提升評測的效率和客觀性。
目前已推出語言大模型評測、多國語言文圖大模型評測及文圖生成評測等工具,并對各種語言基礎(chǔ)模型、跨模態(tài)基礎(chǔ)模型實現(xiàn)評測。后續(xù)將全面覆蓋基礎(chǔ)模型、預(yù)訓(xùn)練算法、微調(diào)算法等三大評測對象,包括自然語言處理(NLP)、計算機(jī)視覺(CV)、音頻(Audio)及多模態(tài)(Multimodal)等四大評測場景和豐富的下游任務(wù)。
首期推出的天秤(FlagEval) 大語言模型評測體系,創(chuàng)新構(gòu)建了“能力-任務(wù)-指標(biāo)”三維評測框架,細(xì)粒度刻畫基礎(chǔ)模型的認(rèn)知能力邊界,可視化呈現(xiàn)評測結(jié)果,總計 600+ 評測維度,包括 22個評測數(shù)據(jù)集,84,433道題目。
天秤(FlagEval)開放評測平臺現(xiàn)已開放申請(flageval.baai.ac.cn),打造自動化評測與自適應(yīng)評測機(jī)制,可輔助模型研發(fā)團(tuán)隊利用評測結(jié)果指導(dǎo)模型訓(xùn)練,同時支持英偉達(dá)、昇騰(鵬城云腦)、寒武紀(jì)、昆侖芯等多種芯片架構(gòu)及 PyTorch、MindSpore 等多種深度學(xué)習(xí)框架。
天秤(FlagEval)評測體系是科技部2030旗艦項目重要課題,正與北京大學(xué)、北京航空航天大學(xué)、北京師范大學(xué)、北京郵電大學(xué)、閩江學(xué)院、南開大學(xué)、中國電子技術(shù)標(biāo)準(zhǔn)化研究院、中國科學(xué)院自動化研究所等合作單位共建(按首字母排序),定期發(fā)布權(quán)威評測榜單
3. 開源開放,F(xiàn)lagOpen 大模型開源技術(shù)體系升級,大規(guī)模、可商用中文指令數(shù)據(jù)集COIG二期發(fā)布
黃鐵軍院長提到,大模型不是任何一家機(jī)構(gòu)或者一家公司壟斷的技術(shù),大模型技術(shù)體系是大家共建共享。我們要共建一個智力社會所需要的一套基礎(chǔ)的算法體系。因此,智源研究院在打造開源生態(tài)方面做了許多努力。
圖:FlagOpen旗下,一站式開源子平臺一覽
今年年初發(fā)布的FlagOpen大模型技術(shù)開源體系,經(jīng)過一段時間的發(fā)展,又有了一系列發(fā)展。為大模型發(fā)展夯實底層技術(shù)棧,提供切實加速度。
FlagOpen平臺是智源建設(shè)的大模型技術(shù)開源體系。旨在打造全面支撐大模型技術(shù)發(fā)展的開源算法體系和一站式基礎(chǔ)軟件平臺,支持協(xié)同創(chuàng)新和開放競爭,共建共享大模型時代的“新Linux”開源開放生態(tài)。
數(shù)據(jù)集方面,智源已開源首個大規(guī)模、可商用的中文指令數(shù)據(jù)集COIG。COIG一期已開放總計19.1萬條指令數(shù)據(jù),COIG二期正在建設(shè)最大規(guī)模、持續(xù)更新的中文多任務(wù)指令數(shù)據(jù)集,整合了1800多個海量開源數(shù)據(jù)集,人工改寫了3.9億條指令數(shù)據(jù),并提供了完善的數(shù)據(jù)篩選、版本控制工具,方便大家使用。
大模型、生命智能、AI4Science,
三大路線通向AGI
在攻關(guān)大模型的同時,智源一直關(guān)注“具身智能”技術(shù)路線,探索強化學(xué)習(xí)在多模態(tài)交互模型方面的潛力。近期,智源研究院提出了在無專家數(shù)據(jù)情況下高效解決《我的世界》任務(wù)的方法Plan4MC,可完成大量復(fù)雜多樣任務(wù),為當(dāng)前強化學(xué)習(xí)路徑下最優(yōu)表現(xiàn),成功率相比所有基線方法有大幅提升。我們的下一個目標(biāo)是讓智能體在開放世界中持續(xù)學(xué)習(xí)并進(jìn)一步具備創(chuàng)造力。
智源在AI for Science領(lǐng)域的探索,致力于人工智能與基礎(chǔ)科學(xué)深度融合的嶄新科研范式,延展不同科學(xué)領(lǐng)域的探索邊界,造福人類與社會。在相關(guān)研究中,智源團(tuán)隊在生命演化和蛋白質(zhì)結(jié)構(gòu)預(yù)測方向作出了重磅成果。OpenComplex 是智源健康計算研究中心打造的面向生物大分子的開源人工智能算法平臺,目前已開源蛋白質(zhì)、RNA 以及復(fù)合物的高精度結(jié)構(gòu)預(yù)測訓(xùn)練和評測代碼。平臺還建立了將「蛋白質(zhì)結(jié)構(gòu)預(yù)測」「RNA 結(jié)構(gòu)預(yù)測」和「蛋白質(zhì)-RNA 復(fù)合物結(jié)構(gòu)預(yù)測」三類任務(wù)統(tǒng)一的端到端生物大分子三維結(jié)構(gòu)預(yù)測深度學(xué)習(xí)框架。最近一年,智源 OpenComplex 團(tuán)隊在蛋?質(zhì)結(jié)構(gòu)預(yù)測權(quán)威競賽 CAMEO中取得穩(wěn)定領(lǐng)先成績,連續(xù)在最近月度、季度、半年度和年度評測周期中排名第一。
去年智源大會發(fā)布了最高精度的仿真線蟲?,F(xiàn)在,智源開放仿真線蟲研究所使用的“天演“平臺,提供在線服務(wù)。天演是超大規(guī)模精細(xì)神經(jīng)元網(wǎng)絡(luò)仿真平臺,具有四項顯著特點:當(dāng)今效率最高的精細(xì)神經(jīng)元網(wǎng)絡(luò)仿真的平臺;支持超大規(guī)模的神經(jīng)網(wǎng)絡(luò)仿真;提供一站式在線建模與仿真工具集;高質(zhì)量可視化交互,支持實時仿真可視協(xié)同運行。
基于天演平臺,實現(xiàn)對生物智能進(jìn)行高精度仿真,探索智能的本質(zhì),推動由生物啟發(fā)的通用人工智能。為進(jìn)一步推動神經(jīng)系統(tǒng)仿真規(guī)模與性能,天演團(tuán)隊將天演接入我國新一代百億億次超級計算機(jī)-天河新一代超級計算機(jī)。通過“天演-天河”的成功部署運行,實現(xiàn)鼠腦V1視皮層精細(xì)網(wǎng)絡(luò)等模型仿真,計算能耗均能降低約10倍以上,計算速度實現(xiàn)10倍以上提升,達(dá)到全球范圍內(nèi)最極致的精細(xì)神經(jīng)元網(wǎng)絡(luò)仿真的性能,為實現(xiàn)全人腦精細(xì)模擬打下堅實基礎(chǔ)。
智源大會:人工智能頂級專家
共話通用人工智能發(fā)展機(jī)遇與挑戰(zhàn)
隨著ChatGPT等大模型的發(fā)布,全球人工智能掀起了新一輪發(fā)展熱潮,國內(nèi)外大模型技術(shù)研究與產(chǎn)業(yè)發(fā)展日新月異,通用人工智能進(jìn)入全新發(fā)展時期。
本次大會圍繞當(dāng)前大模型等通用人工智能技術(shù)發(fā)展的熱點問題,匯聚頂尖專家,搭建國際交流合作平臺,將為人工智能技術(shù)可持續(xù)發(fā)展注入強勁動力。
在本屆大會安排上,重點圍繞以下三方面展開:
1. 通用人工智能發(fā)展現(xiàn)狀與未來趨勢:
雖然大模型生成的內(nèi)容質(zhì)量持續(xù)在提升,但是仍有專家對大模型路徑存疑。圖靈獎得主Yan LeCun認(rèn)為基于自監(jiān)督的語言模型無法獲得關(guān)于真實世界的知識,這些模型在本質(zhì)上是不可控的,并提出了“世界模型(World Model)”的概念。
本次大會重點圍繞通用人工智能主要三條路徑的前沿研究現(xiàn)狀及未來趨勢進(jìn)行深入研討。
深度學(xué)習(xí)大模型路徑設(shè)置了基礎(chǔ)模型前沿技術(shù)、視覺與多模態(tài)大模型、生成模型等論壇,具身方向設(shè)置了具身智能與強化學(xué)習(xí)論壇,類腦智能方向設(shè)置了基于認(rèn)知神經(jīng)科學(xué)的大模型、
類腦計算、AI生命科學(xué)等論壇,另外,還有智能的物質(zhì)基礎(chǔ)等更為前沿的研究方向。
作為首位開場嘉賓,圖靈獎得主Yann LeCun帶來了題為“Towards Machines that can Learn, Reason, and Plan”的主題演講,表達(dá)了他對通用人工智能發(fā)展路徑的系統(tǒng)思考。
圖:楊立昆和朱軍對話
圖靈獎得主Joseph Sifakis、鄭南寧院士和Graphcore聯(lián)合創(chuàng)始人Simon Knowles等嘉賓還帶來了精彩的線上特邀報告。同時,基礎(chǔ)模型前沿技術(shù)、視覺與多模態(tài)大模型、具身智能與強化學(xué)習(xí)、類腦計算、大模型新基建與智力運營等專題論壇也陸續(xù)開啟。
2. 安全倫理問題和風(fēng)險防范:
今年人工智能的發(fā)展出現(xiàn)了很大的變化,大模型出來了“涌現(xiàn)”能力,盡管還遠(yuǎn)沒到“超人”的風(fēng)險,但是,隨著人工智能技術(shù)進(jìn)步而來的是對安全風(fēng)險問題關(guān)注的陡然提升。
本次大會,我們也邀請到了關(guān)于人工智能安全倫理問題方面的代表性人物進(jìn)行思辨。
大會開幕式上,未來生命研究所創(chuàng)始人Max Tegmark介紹受控下的AI發(fā)展, 分享了“Keeping AI under control”的報告,并與清華大學(xué)張亞勤院士進(jìn)行了對話,共同探討AI倫理安全和風(fēng)險防范問題。
6月10日全天的“AI安全與對齊”論壇,OpenAI聯(lián)合創(chuàng)始人Sam Altman進(jìn)行了開場主題演講,圍繞模型的可解釋性、可擴(kuò)展性和可泛化性給出了見解。隨后,Sam Altman和智源研究院理事長張宏江開展了尖峰問答,主要探討在當(dāng)前的AI大模型時代,如何深化國際合作,如何開展更安全的AI研究,以及如何應(yīng)對AI的未來風(fēng)險。
圖:張宏江和Sam Altman對話
本次論壇眾星云集,加州伯克利分校教授Stuart Russell、 圖靈獎得主,中國科學(xué)院院士姚期智、Anthropic聯(lián)合創(chuàng)始人Christopher Olah等等AI專家,也在論壇中給出了自己對當(dāng)前AI可持續(xù)發(fā)展的洞見。
3. 開源開放創(chuàng)新生態(tài)建設(shè)
當(dāng)前,以大模型為核心的人工智能生態(tài)體系正在形成,大模型向下帶動AI基礎(chǔ)軟硬件、AI系統(tǒng)、算力設(shè)施,向上支撐賦智經(jīng)濟(jì)社會各類應(yīng)用。本次大會圍繞底層基礎(chǔ)設(shè)置大模型新基建與智力運營、AI系統(tǒng)等論壇,圍繞應(yīng)用設(shè)置自動駕駛論壇。
開源開放是人工智生態(tài)建設(shè)的必然選擇,本次大會專門設(shè)置了AI開源論壇,同時邀請了國際開源社區(qū)LAION的創(chuàng)始人,Linux基金會負(fù)責(zé)人共同探討開源社區(qū)、開源生態(tài)的建設(shè)與運營,推動開源開放創(chuàng)新生態(tài)建設(shè)。
每年的智源大會,都會吸引幾萬人工智能專業(yè)人士,受到廣泛認(rèn)可。
這一頂尖AI內(nèi)行交流平臺,已成為鏈接國內(nèi)外人工智能頂尖學(xué)者,進(jìn)行前沿思想研討的頂尖專業(yè)交流平臺。大會分享嘉賓一直遵循嚴(yán)格的內(nèi)行榮譽邀請制,以保障分論壇也有不遜色于主論壇的高端分享嘉賓與規(guī)格品質(zhì)。每年智源大會,大部分論壇都由智源學(xué)者、產(chǎn)業(yè)合作者共同組織,是智源學(xué)術(shù)與產(chǎn)業(yè)生態(tài)圈攜手繪制的杰作。
在過去的四年間,500余位以圖靈獎得主為代表的頂尖AI專家在這里激揚思想,數(shù)萬名專業(yè)人士注冊參會,覆蓋30多個國家和地區(qū)。
在生態(tài)創(chuàng)新方面,除了智源大會,還形成了智源學(xué)者、智源社區(qū)、青源會等層巒疊嶂、欣欣向榮的AI生態(tài)圈,從頂尖學(xué)者到青年才俊,從前沿思想到一線實踐。智源學(xué)者匯聚近百位人工智能學(xué)者,自由探索勇闖AI無人區(qū);智源社區(qū)吸引12萬AI內(nèi)行,每年舉辦逾百場學(xué)術(shù)交流活動;青源會則囊括海內(nèi)外1000+青年AI才俊,密切交流。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )