人工智能需要重置

ArCompany公司的Karen Bennet是一名致力于平臺、開源和封閉源系統(tǒng)以及人工智能技術(shù)的經(jīng)驗豐富的工程主管。作為雅虎公司的前工程主管以及Red Hat公司的創(chuàng)始人之一,Karen致力于推動技術(shù)革命,他早期在IBM公司專家系統(tǒng)參與人工智能技術(shù)的開發(fā),而如今正在見證機器的快速實驗學習和深度學習。他撰寫的這篇文章將對人工智能的現(xiàn)狀進行探討。

隨著人工智能的應(yīng)用越來越廣泛,人們發(fā)現(xiàn)很難駕馭,對于采用人工智能的承諾在很大程度上還沒有實現(xiàn)。雖然人工智能相關(guān)技術(shù)仍在不斷涌現(xiàn),但并未成為所承諾的那樣成為一種普遍力量。以下查看一下令人信服的統(tǒng)計數(shù)據(jù),以證實人工智能技術(shù)的發(fā)展:

自2000年以來,人工智能創(chuàng)業(yè)公司數(shù)量增加了14倍。

自2000年以來,風險投資公司對人工智能初創(chuàng)企業(yè)的投資增長了6倍。

自2013年以來,需要人工智能技能的工作比例增長了4.5倍。

截至2017年,Statista公司發(fā)布了以下調(diào)查結(jié)果:截至去年,全球只有5%的企業(yè)將人工智能廣泛納入其流程和產(chǎn)品中,32%的企業(yè)尚未采用,22%的企業(yè)沒有計劃采用。

截至2017年,全球商業(yè)組織的人工智能(AI)采用水平

Filip Pieniewski最近在行業(yè)媒體Venturebeat發(fā)表的文章中表示:“人工智能的冬天即將來臨”。

如今,這種情況正在發(fā)生變化。從表面上看,神經(jīng)信息處理系統(tǒng)大會(NIPS)會議仍然座無虛席,企業(yè)的新聞稿中仍然發(fā)布很多關(guān)于人工智能的文章,特斯拉公司創(chuàng)始人伊隆?馬斯克仍然致力于開發(fā)和研究具有前途的自動駕駛汽車,谷歌公司不斷推動Andrew Ng的線路,認為人工智能產(chǎn)業(yè)規(guī)模將比電力行業(yè)更大。但這種敘述開始讓人質(zhì)疑。

人們對自動駕駛汽車很感興趣。但在今年春天,一輛自主駕駛車輛撞死一名行人,這引發(fā)了人們的質(zhì)疑,并對自動化系統(tǒng)決策背后的道德規(guī)范表示懷疑。自動駕駛車輛問題并不是拯救汽車乘客生命一種簡單的二元選擇,可能將演變成對于良心、情感和感知的爭論,這使機器做出合理決定的路徑變得復雜。

Karen的文章指出:全自動駕駛汽車的夢想可能比人們意識到的還要遙遠。人工智能專家越來越擔心,在自動駕駛系統(tǒng)能夠可靠地避免事故之前,可能需要數(shù)年甚至數(shù)十年的探索。

Karen解釋說,以歷史作為預測因素,云計算行業(yè)和網(wǎng)絡(luò)行業(yè)在開始以顯著的方式影響人們工作和生活之前花費了大約5年時間,幾乎需要10年的時間才影響市場的重大轉(zhuǎn)變。人們正在設(shè)想人工智能技術(shù)的類似時間表。

為了讓每個人都能夠采用,需要一個可擴展的產(chǎn)品和一個可供所有人使用的產(chǎn)品,而不僅僅是數(shù)據(jù)科學家。該產(chǎn)品需要考慮捕獲數(shù)據(jù),準備數(shù)據(jù),訓練模型,以及預測的數(shù)據(jù)生命周期。隨著數(shù)據(jù)存儲在云中,數(shù)據(jù)管道可以不斷提取并準備它們來訓練將進行預測的模型。模型需要不斷改進新的訓練數(shù)據(jù),這反過來將使模型保持相關(guān)性和透明性。這就是目標和承諾。

在沒有重大用例的情況下構(gòu)建人工智能概念證明

Karen在人工智能初創(chuàng)企業(yè)中工作,其所見證的以及與同行討論時都是廣泛的人工智能實驗,涉及多個業(yè)務(wù)問題,這些問題往往停留在實驗室中。

最近他發(fā)布的一篇文章證實了如今人工智能試點項目的普遍性。文章指出,“人工智能技術(shù)的供應(yīng)商經(jīng)常受到激勵,使他們的技術(shù)聽起來比實際能力更強——但暗示著比實際擁有更多的真實世界的吸引力......企業(yè)中的大多數(shù)人工智能應(yīng)用只不過是一種試點?!惫?yīng)商推出銷售營銷解決方案、醫(yī)療保健解決方案和人工智能的財務(wù)解決方案只是為了驅(qū)動人工智能技術(shù)得到人們越來越多的關(guān)注。在任何給定的行業(yè)中,人們發(fā)現(xiàn)在銷售人工智能軟件和技術(shù)的數(shù)百家供應(yīng)商公司中,只有大約三分之一的公司真正擁有知識和技術(shù)開展人工智能的探索和研究。

風險投資商意識到他們可能在一段時間內(nèi)看不到投資回報。然而,很少有模型進行普遍的實驗只是人工智能尚未準備好迎接廣泛應(yīng)用的原因之一。

算法可以為此負責嗎?

人們也許聽說過人工智能“黑盒”, 這是一種無法確定決策的方法。這種做法將面向銀行和大型機構(gòu),這些機構(gòu)具有強制執(zhí)行問責制的合規(guī)標準和政策。在系統(tǒng)作為黑盒運行,只要這些算法的創(chuàng)建已經(jīng)通過審核,并且已經(jīng)由關(guān)鍵利益相關(guān)者滿足某些標準,就可能存在對算法的固有信任。鑒于壓倒性的生產(chǎn)算法以及由此產(chǎn)生的意外和有害結(jié)果的壓倒性證據(jù),這一概念很快就受到了質(zhì)疑。由于企業(yè)保密措施不當,缺乏足夠的教育和理解,很難批判性地對投入、結(jié)果以及為什么會出現(xiàn)這些結(jié)果進行檢查,企業(yè)的許多簡單系統(tǒng)都像超出了任何有意義審查范圍的黑盒一樣運行。

如今的人工智能行業(yè)正處于企業(yè)準備就緒的早期階段。人工智能非常有用,可以用于發(fā)現(xiàn)并幫助解析大量數(shù)據(jù),但是仍然需要人工干預作為評估和處理數(shù)據(jù)及其結(jié)果的指南。

Karen解釋說,如今的機器學習技術(shù)可以標記數(shù)據(jù)以識別洞察力。但是,作為此過程的一部分,如果某些數(shù)據(jù)被錯誤地標記,或者如果沒有足夠的數(shù)據(jù)表示,或者存在有問題的數(shù)據(jù)表示有偏差,則可能會發(fā)生錯誤的決策結(jié)果。

他還指出目前的流程需要不斷完善:目前,人工智能完全是一種關(guān)于決策支持以提供對業(yè)務(wù)可以得出結(jié)論的見解。在人工智能發(fā)展的下一階段,它可以實現(xiàn)數(shù)據(jù)中的自動化操作,還有其他需要解決的問題,如偏見、可解釋性、隱私、多樣性、道德規(guī)范和持續(xù)模型學習。

Karen以一個人工智能模型為例進行了說明,當圖像標題暴露了通過訓練學到的知識時,可以看到錯誤,這些圖像用他們所包含的對象標記。這表明,人工智能產(chǎn)品需要具有常識世界模型的對象和人才才能真正理解。僅暴露于有限數(shù)量的標記對象且訓練集中的有限多樣性將限制這個常識世界模型的有效性。企業(yè)需要研究確定模型如何處理其輸入,并以人類可理解的術(shù)語得出結(jié)論。亞馬遜公司發(fā)布了面部識別技術(shù)Rekognition,這是目前正在生產(chǎn)并獲得許可使用的技術(shù)的一個例子,同時其效果存在明顯差距。

算法正義聯(lián)盟的創(chuàng)始人Joy Buolamwini呼吁暫停這項技術(shù),聲稱它無效,并且需要更多的監(jiān)督,呼吁在公開發(fā)布這些系統(tǒng)之前將更多的政府標準納入這些類型的系統(tǒng)。

12下一頁>

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-10-30
人工智能需要重置
ArCompany公司的Karen Bennet是一名致力于平臺、開源和封閉源系統(tǒng)以及人工智能技術(shù)的經(jīng)驗豐富的工程主管。

長按掃碼 閱讀全文