如今業(yè)內(nèi)談起Open AI,語氣和一年前截然不同。
距離它上一次技驚四座,還是今年8月其戰(zhàn)隊Open AI Five在《Dota2》中血虐人類半職業(yè)選手。當時甚至掀起了一片比AlphaG更猛烈的“AI恐怖論”,一度成為Open AI腳踢DeepMind、拳打Facebook的實力證明。
但是最近情況卻出現(xiàn)了變化。下半年,Open AI不是致力于打出游戲新記錄(在《蒙特祖瑪?shù)膹统稹烦搅薉eepMind),就是分享自己的游戲攻略(發(fā)布Spinning Up in Deep RL課程教人打游戲),要不就是研究更適合打游戲的新環(huán)境(推出訓練平臺CoinRun)。
雖然這些游戲一條龍技術(shù)也吸引了媒體關注,但顯然都沒能掀起什么大水花。
反觀DeepMind,不是承包頂會論文的半壁江山,就是憑Alphafold等重大突破收獲一片口頭諾貝爾獎,時不時就有神仙成果刷屏。
種種跡象都表明,Open AI似乎已經(jīng)不再是科技巨頭里最能打的那個,而且越來越專注電競比賽的節(jié)奏。
天才極客為何沉迷游戲?科技巨頭為何頻頻失手?究竟是人性的扭曲還是道德的淪喪,今天咱們《走近科學》(劃掉)就來抽絲剝繭,看看Open AI究竟是什么地方出了問題。
少年維特之煩惱:Open AI的青春期綜合癥
公開處刑之前,先簡單普及一下Open AI的運營方式:
2015年成立的Open AI,一直是以第三極的方式存在于AI世界的。由特斯拉的創(chuàng)始人埃隆·馬斯克(Elon Musk)聯(lián)合其他科技巨頭們共同出資成立,旨在以非盈利的方式進行人工智能研究。
Open AI采用開源項目的形式,將所有的研究結(jié)果對外開放,以達到“防止企業(yè)和政府依靠超級AI過度榨取利潤或謀取權(quán)力”的目的。
這種“為人類未來而搞AI”的技術(shù)理想主義,很投一些研究人員的胃口。因此,盡管薪水并沒有太大競爭力,Open AI一成立依然吸引了不少頂級天才加入。像是Stripe的前CTO格雷格·布洛克曼(Greg Brockman),前谷歌研究員伊利亞·蘇特斯科瓦(Ilya Sutskever),天才的計算機大師艾倫·凱伊(Alan Kay),以及眾多曾在學術(shù)機構(gòu)、Facebook AI或DeepMind里工作過的青年才俊。
如今,Open AI已經(jīng)擁有40多個技術(shù)人員,在一個投資人提供的辦公空間里工作,而其工作所用到的一些基礎設施,比如AWS服務等,則由亞馬遜合作提供。
左:Y Combinator的Sam Altman右:特斯拉、Space X的Elon Musk
作為一個非營利機構(gòu),Open AI成立以來的貢獻,主要體現(xiàn)在三各方面:
1. 引領深度學習技術(shù)突破。比如舉辦了首屆針對AI 的強化學習競賽,發(fā)布了深度強化學習教育資源Spinning Up,最近還推出了一個解決AI模型通用難題的訓練環(huán)境CoinRun。
2. 推動AI安全和持續(xù)發(fā)展問題。由于自身的公益性,Open AI非常關心人工智能的安全問題,在發(fā)布的分析報告中,多次提醒注意計算量增長可能引發(fā)的安全風險和惡意使用問題。
3. 推進技術(shù)普惠和民主化。Open AI是“AI民主化”的主要推動者之一,它的一切發(fā)展成果都會開放給所有人,與合作方自由分享信息。比如與谷歌(GoogleBrain)和加州大學伯克利分校(UC Berkeley)合作研發(fā)現(xiàn)代機器學習系統(tǒng)。
看起來,Open AI就是一個由技術(shù)精英們組織起來的“正義聯(lián)盟”。但最近這半年,Open AI,似乎經(jīng)歷了一場狂野而迷茫的叛逆青春期。
最明顯的,就是正在喪失在AI界的領航能力,變成一個專注打游戲的組織。因此,它對媒體的吸引力也開始減弱,以至于這大半年,人們對它的印象大多數(shù)還停留在峽谷里血虐人類玩家的游戲戰(zhàn)績。
從叱咤風云到刷不出存在感,究竟是Open AI太飄,還是谷歌們提不動刀了?
同樣愛打游戲,為什么一個成了學霸,一個成了網(wǎng)癮少年?
AI和游戲玩家的對抗,似乎成了Open AI的核心發(fā)力點。原因也比較簡單:
一是符合Open AI的AI研發(fā)邏輯:先開發(fā)新的強化學習算法,再在模擬環(huán)境中訓練解決困難的問題,最后再把得到的系統(tǒng)應用在真實世界中。而游戲在訓練AI上有天然優(yōu)勢,比如清晰的數(shù)據(jù)支撐啦,訓練結(jié)果好壞一目了然啦,而且還有大量的人類訓練數(shù)據(jù)充當參照系。顯然,Open AI正是將工作重心放在了游戲模擬上。
二是比較容易搞出大新聞。電競賽事的復雜性和難預測性,導致圍觀群眾常常會把完爆人類選手、游戲跑分等作為衡量算法價值的標尺,進而成為評價一個公司技術(shù)能力的標準。與玩家對抗容易吸引關注,也成了Open AI刷存在感的主要方式。
不過,曾經(jīng)將Open AI捧上神壇的游戲,也正讓它深陷泥沼。最為明顯的一點,就是日復一日地玩游戲,而忘記了主業(yè)是為了催化變革而生的。導致不少人開始質(zhì)疑Open AI的公益模式。
Open AI 的團隊
有人說Open AI最初的夢想是不現(xiàn)實的,也有人說公益項目研究過多但力度不夠,往往難逃無疾而終的命運。
反觀隔壁谷歌家的DeepMind,還與暴雪聯(lián)手在星際爭霸Ⅱ中與人類玩家對抗,但回頭就承包了NIPS一半的論文指標。同樣是玩游戲,耽誤人當學霸了嗎?沒有!
不過,簡單粗暴地給公益型AI判死刑,顯然不太合適。想要把Open AI從被邊緣化的趨勢中拉回來,恐怕還要經(jīng)歷一場“刮骨療毒”。
AI公益的路真的走不通?只是Open AI先天不足罷了
AI公益的路真的走不通嗎?顯然不是。
除了都通過開源眾包的方式發(fā)布數(shù)據(jù)集和訓練平臺之外,谷歌也開始在“AI民主化”的公益道理上試水。
去年的谷歌云計算大會上,就提出了利用谷歌云計算的力量實現(xiàn)AI技術(shù)民主化的目標,甚至推出了可自動生成機器學習模型的AutoML。
同樣高舉“AGI”(引導AI走向通用智能)大旗,谷歌和Open AI,正在被逐漸擠到越來越狹窄的跑道上。為什么在公益領域,根正苗紅的Open AI,居然比企業(yè)還后勁不足呢?這恐怕還要從“非營利機構(gòu)”經(jīng)營模式的先天不足說起:
1. 自由與迷茫:公益的雙刃劍。
不以盈利為目的的理想主義,是Open AI的優(yōu)點,也正在成為Open AI的弱點。
宏大的使命和愿景,讓Open AI可以吸引人才、贏得注意力并保持競爭力。但沒有商業(yè)目標驅(qū)動,也讓Open AI缺乏目標意識,最終展現(xiàn)出的就是對自己未來幾年內(nèi)想做什么沒有明確的想法。
工作重點和主題,行動路線是什么,如何滿足受眾的需求和期待?都是云山霧罩,只能靠打游戲“混日子”。
2. 過分松散的管理體制和缺位的監(jiān)督機制。
Open AI給予了員工很大的自由度和開放度,因此即便是薪酬低于企業(yè)主也能找來不少頂級人才。但這也帶來了兩個難題:
一是缺乏清晰有效的監(jiān)督機制,產(chǎn)出效率只能建立在投資人一般性觀察的基礎上,這就使得工作成果很難被有效評估,也很容易因為惰性、人員變動、政治因素等讓組織行動流于形式;
二是留住人才的不確定性大大增強?!坝脨郯l(fā)電”固然高尚,但因此而來的高級人才一旦在工作中難以滿足自我實現(xiàn),就會面臨人才流失的問題。顯然,Open AI還沒有相應的激勵機制去讓員工始終如一地保持最初的熱情和斗志。
問題已經(jīng)開始顯現(xiàn),最近 Open AI 的研究員不斷流失。著名研究員、GAN提出者Ian Goodfellow 在今年2月底離開Open AI,重新回到了谷歌大腦。
3. 薄弱的公共關系與可持續(xù)性。
與企業(yè)動輒投入不菲的營銷與公關策略不同,Open AI這樣的非營利性組織要保持良好的公共關系和知名度顯然更為不易。
而人工智能項目想要順利進行下去必須投入大量的人力和硬件。目前Open AI還停留在吃老本的階段(2015年拿到的10億美元投資),未來如何募集資金是必然會面臨的問題。
當電競策略開始引發(fā)認知疲勞、特斯拉這棵大樹“自身難?!钡漠斚?,Open AI必須主動打破營銷乏力的組織慣性。
一句話,Open AI起于公益,也困于公益。當外界在譴責Open AI“小時了了,大未必佳”的時候,可能一直都忽略了一個問題,就是非營利性組織的先天弱點。
它并不是孤例。前微軟創(chuàng)始人Paul Allen曾投資1億美元到先進技術(shù)智囊團,也和很多技術(shù)公益項目一樣無疾而終。這也提醒我們:一個弱中心組織在將人類的未來捆綁在自己身上之前,首先要克服自身的諸多困境。
走出青春期:Open AI的未來向何處去?
與越來越封閉的企業(yè)AI和日趨商業(yè)化的學術(shù)AI相比,Open AI這樣思想覺悟和業(yè)務水平都在線的稀有物種,真是讓人舍不得求全責備。
所以,我們不妨以更全面的視角,來考量下一個問題——以社會責任為己任的Open AI,應該如何走出迷茫期?
這里有三個小建議:
1. 構(gòu)建長期性策略。在組織共識的基礎上,將“實現(xiàn)AI民主”這樣寬泛而模糊的使命,轉(zhuǎn)化成實質(zhì)性、可量度的行動目標,推動Open AI自身成長演化,即便是游戲打怪也更加有的放矢。
2. 有力的領導核心。即便有了清晰的使命,缺乏有力的領導人,就像一條船有航行圖卻沒有稱職的船長一樣。建立初期,Open AI是靠埃隆·馬斯克和山姆·奧爾特曼來支撐,如今馬斯克已經(jīng)離開了Open AI的董事會,建立一個強有力的領導核心,對Open AI至關重要。
3. 健全的財務體系。目前大家對Open AI打游戲已經(jīng)有點疲了,“在游戲中打贏xxx”已經(jīng)很難吸引媒體加以報道,想要改變這種印象,Open AI還需要拿點新東西出來才行。機構(gòu)名聲越好,越容易爭取到第三方的資金援助。正如馬斯克所說,一般非盈利機構(gòu)的任務都是不緊急的,但Open AI不是,它要做的事情迫在眉睫。
總而言之,一旦大眾和媒體與非營利組織的蜜月期過去,失去了濾鏡的Open AI就不得不面對青春期的迷茫和成長陣痛。能不能完成自我進化,完全取決于自身的適應能力。
德魯克有句名言,營利組織向非營利組織學使命,非營利組織向營利組織學效率。連酷愛霸權(quán)的谷歌都不得不踏上了“AI民主化”的康莊大道,Open AI也是時候開始描繪更清晰的演化路線圖了。
免責聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關。文章僅供讀者參考,并請自行核實相關內(nèi)容。投訴郵箱:editor@fromgeek.com。
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。