??給人工智能找一個能為大眾所接受的定義已經(jīng)成為了最近一個比較熱門的話題了。有些人將AI重新命名為“認知計算”或者是“機器智能”,也有人錯誤的將AI和機器學習混為一談。這可能與AI不是一個單獨的學科有關。實際上,人工智能是一個廣泛的領域,從“機器人學”到“機器學習”都包括在內(nèi)。AI的終極目標是獲得完成任務和定義的認知功能的機器學習能力,否則它還只是在人類智力的范圍之內(nèi),他只能做人類也能夠完成的事是沒有意義的。因此,為了達到以上目標,機器必須有自我學習的能力而不是人類通過編程告訴他應該怎么做。
??如果你有留心過的話,AI在過去的十年中已經(jīng)滲入到了多個領域了,從無人駕駛到語音識別等。在這個背景下,越來越多的公司甚至是家庭里面都會談論到AI,因為AI已不再是一個遙遠的未來了,而是當今不能夠切切實實影響到每個人的科技。事實上,受歡迎的新聞報道中幾乎每天都會出現(xiàn)AI和技術巨頭,一個接一個地表達了他們重要的長期AI戰(zhàn)略。雖然有已經(jīng)很多投資者和老板都渴望了解如何在這個新的世界中獲取利益,但大多數(shù)人仍然處在在試圖搞懂AI是什么的階段中。
??鑒于AI將影響整個經(jīng)濟,這些對話中的參與者代表了建立或使用AI系統(tǒng)的意圖,理解程度和經(jīng)驗程度的整體分布。因此,關于AI的討論至關重要 - 包括其中提出的問題,結論和建議 - 以數(shù)據(jù)和現(xiàn)實為基礎,而不是推測。這是非常容易的(有時令人興奮的),以廣泛推斷出版研究結果或技術新聞公告,投機評論和思考實驗的結果的影響。
??下面是AI的六個領域,特別值得注意的是它們將影響未來的數(shù)字產(chǎn)品和服務。我將會描述他們是什么,為什么他們很重要,他們今天如何被使用,并且包括一些公司和研究這些技術的研究人員的清單(可能有遺漏,見諒)。
1. 加強學習(RL)
加強學習是通過人為學習新任務的方式而啟發(fā)的反復學習的范例。在一個典型的RL 設置中,代理的任務是在數(shù)字環(huán)境中觀察其當前狀態(tài),并采取行動來最大限度地增加其已設置的長期獎勵。代理人從每個行動的結果收到來自環(huán)境的反饋意見,以便知道行動是否促進或阻礙了其進展。因此,RL代理商必須平衡其對環(huán)境的探索,以找到實現(xiàn)獎勵的最佳策略,以及利用其發(fā)現(xiàn)達到預期目標的最佳策略。這種方法在Google DeepMind的Atari games and Go的工作中受到歡迎。RL在現(xiàn)實世界中工作的一個例子是優(yōu)化能源效率以降低Google數(shù)據(jù)中心的任務。這里,RL系統(tǒng)實現(xiàn)了降低40%的冷卻成本。在可以模擬的環(huán)境(例如視頻游戲)中使用RL代理的一個重要的本地優(yōu)勢在于可以以多種成本生成訓練數(shù)據(jù)。這與監(jiān)督的深度學習任務形成鮮明對比,這些任務通常需要從現(xiàn)實世界獲取昂貴且難以獲得的訓練數(shù)據(jù)。
應用程序:多個代理人在共享模型環(huán)境中學習學習自己的實例,或者通過在相同的環(huán)境中相互交互和學習,學習導航3D環(huán)境,如迷宮或城市街道,進行自主駕駛,反向強化學習,概括觀察行為通過學習任務的目標(例如學習驅動或賦予非人類視頻游戲角色與人類行為)。
主要研究人員:Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell,Marc Bellemare(Google DeepMind),Carl Rasmussen(劍橋),Rich Sutton(Alberta),John Shawe-Taylor(UCL)等。
公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba / Microsoft,NVIDIA,Mobileye,OpenAI。
2. 生成模型
與用于分類或回歸任務的歧視模型相反,生成模型在訓練示例中學習概率分布。通過從這種高維度分布中抽樣,生成模型輸出與訓練數(shù)據(jù)類似的新例子。這意味著,例如,對真實面部圖像進行訓練的生成模型可以輸出類似面部的新合成圖像。有關這些模型如何工作的更多細節(jié),請參閱Ian Goodfellow NIPS 2016教程。他介紹的架構,生成對抗網(wǎng)絡(GAN)在研究領域特別熱門,因為它們提供了無人監(jiān)督學習的途徑。GAN有兩個神經(jīng)網(wǎng)絡:生成器,將隨機噪聲作為輸入并且合成內(nèi)容(例如圖像)和鑒別器,這幫助他了解了什么是真實圖像,并且被識別由發(fā)生器創(chuàng)建的圖像是真實的或假的。對抗訓練可以被認為是一種游戲,其中發(fā)生器必須迭代地學習如何從噪聲中創(chuàng)建圖像,使得鑒別器不再能夠將生成的圖像與實際圖像區(qū)分開來。這個框架正在擴展到許多數(shù)據(jù)模式和任務。
應用:模擬時間序列的可能期貨(例如,強化學習中的規(guī)劃任務); 超分辨率圖像 ; 從2D圖像恢復3D結構 ; 從小標簽數(shù)據(jù)集推廣; 一個輸入可以產(chǎn)生多個正確輸出的任務(例如,在視頻中預測下一幀 ;在對話接口(例如漫游器)中創(chuàng)建自然語言; 加密 ;當不是所有標簽可用時ji進行半監(jiān)督學習; 藝術風格轉移 ; 綜合音樂和聲音 ;畫中畫。
公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck *,Creative.ai,Gluru *,Mapillary *,Unbabel。
主要研究人員:Ian Goodfellow(OpenAI),Yann LeCun和Soumith Chintala(Facebook AI Research),Shakir Mohamed和A?ronvan den Oord(Google DeepMind),Alyosha Efros(Berkeley)等等。
3. 神經(jīng)網(wǎng)絡
為了讓AI系統(tǒng)像現(xiàn)在一樣在多種現(xiàn)實環(huán)境中進行泛化,他們必須能夠不斷學習新任務,并記住如何在將來執(zhí)行所有這些任務。然而,傳統(tǒng)的神經(jīng)網(wǎng)絡通常不具有這種可以做到不忘記順序的任務學習。這個缺點被稱為災難性遺忘。這是因為當網(wǎng)絡按順序進行訓練時,對任務A來說很重要的權重在完成B任務時發(fā)生了變化。
??然而,有幾種強大的架構可以使神經(jīng)網(wǎng)絡具有不同程度的記憶。這些包括能夠處理和預測時間序列的長期記憶網(wǎng)絡(一種經(jīng)常性的神經(jīng)網(wǎng)絡變體),DeepMind的神經(jīng)網(wǎng)絡和存儲器系統(tǒng)的可微分神經(jīng)計算機,以便自己學習和導航復雜的數(shù)據(jù)結構,elastic weight consolidation算法會根據(jù)一個權重對于之前的任務的重要性適當放緩其在當前任務上面的學習,進行性神經(jīng)網(wǎng)絡是了解特定任務的模型之間的橫向連接,以提取先前學習的網(wǎng)絡實用功能。
應用:可以推廣到新環(huán)境的學習代理; 機器人手臂控制任務; 自主車輛; 時間序列預測(如金融市場,視頻,物聯(lián)網(wǎng)); 自然語言理解和下一個字預測。
公司:Google DeepMind,NNaisense(?),SwiftKey / Microsoft Research,F(xiàn)acebook AI Research。
主要研究人員:Alex Graves,Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),JürgenSchmidhuber(IDSIA),Geoffrey Hinton(Google Brain / Toronto),James Weston,Sumit Chopra,Antoine Bordes(FAIR)。
4. 從較少的數(shù)據(jù)中學習,建立較小的模型
深度學習模型值得注意的是需要大量的培訓數(shù)據(jù)才能達到最先進的表現(xiàn)。例如,ImageNet大型視覺識別挑戰(zhàn),參賽團隊將挑戰(zhàn)他們的圖像識別模型,包含120萬個手動標記有1000個對象類別的訓練圖像。如果沒有大規(guī)模的培訓數(shù)據(jù),深度學習模型就不能達到其最佳設置,并且在諸如語音識別或機器翻譯等復雜任務中表現(xiàn)差勁。僅當使用單個神經(jīng)網(wǎng)絡來解決端對端問題時,數(shù)據(jù)要求才會增長; 也就是說,以錄音的原始錄音作為輸入,并輸出演講的文字。這與使用多個網(wǎng)絡相反,每個網(wǎng)絡提供中間表示(例如,原始語音音頻輸入→音素→單詞→文本輸出; 或來自攝像機的原始像素直接映射到轉向命令)。如果我們希望人工智能系統(tǒng)能夠解決這類訓練數(shù)據(jù)具有挑戰(zhàn)性、成本高昂、敏感或耗時的任務,那么重要的是開發(fā)可以從較少示例(即一次或零點學習)中學習最佳解決方案的模型。當對小數(shù)據(jù)集進行培訓時,挑戰(zhàn)包括過度配套,處理異常值的困難,培訓和測試之間的數(shù)據(jù)分布差異。另一種方法是通過將知識從先前任務中獲取的機器學習模型轉移到統(tǒng)稱為轉移學習的過程來改進對新任務的學習。或來自攝像機的原始像素直接映射到轉向命令)。
??相關的問題是使用類似數(shù)量或明顯較少的參數(shù)構建更小的深度學習架構,并具有最先進的性能。優(yōu)勢將包括更有效的分布式培訓,因為數(shù)據(jù)需要在服務器之間進行通信,較少的帶寬將新模型從云端導出到邊緣設備,并提高部署到有限內(nèi)存的硬件的可行性。
應用:通過模擬最初用于大標簽訓練數(shù)據(jù)進行訓練的深層網(wǎng)絡的性能來訓練淺層網(wǎng)絡; 具有較少參數(shù)但與深層模型相同性能的架構(例如SqueezeNet); 機器翻譯。
公司:幾何智能/ Uber,DeepScale.ai,微軟研究,Curious AI公司,Google,Bloomsbury AI。
主要研究人員:Zoubin Ghahramani(劍橋),Yoshua Bengio(蒙特利爾),Josh Tenenbaum(MIT),Brendan Lake(NYU),Oriol Vinyals(Google DeepMind),Sebastian Riedel(UCL)。
5. 訓練和推理的硬件
AI的進步的主要催化劑是用于訓練大型神經(jīng)網(wǎng)絡模型的圖形處理單元(GPU)的重用。與以順序方式計算的中央處理單元(CPU)不同,GPU提供了可以同時處理多個任務的大規(guī)模并行架構。鑒于神經(jīng)網(wǎng)絡必須處理大量(通常是高維數(shù)據(jù)),因此在GPU上的培訓比使用CPU快得多。這就是為什么GPU 在2012年發(fā)布AlexNet之后,已經(jīng)成為淘金熱的鏟子,這是在GPU上實現(xiàn)的第一個神經(jīng)網(wǎng)絡。英偉達,高通,AMD以及最近的谷歌,NVIDIA繼續(xù)在2017年處于領先地位。
??然而,GPU不是專門用于培訓或推斷的; 它們被創(chuàng)建為渲染視頻游戲的圖形。GPU具有很高的計算精度,并不總是需要并且受到存儲器帶寬和數(shù)據(jù)吞吐量的影響。這已經(jīng)打開了像谷歌這樣的大型公司的新一代創(chuàng)業(yè)公司和項目的競爭環(huán)境,專門為高維機器學習應用設計和生產(chǎn)硅片。新芯片設計承諾的改進包括更大的內(nèi)存帶寬,圖形上的計算,而不是向量(GPU)或標量(CPU),更高的計算密度,效率和每瓦特性能。這是令人興奮的,因為AI系統(tǒng)向其所有者和用戶提供明顯的加速回報:更快更高效的模型訓練→更好的用戶體驗→用戶更多地參與→創(chuàng)建更大的數(shù)據(jù)集→通過優(yōu)化提高模型性能。因此,能夠更快地訓練和部署計算能量和能源效率的AI模型的人具有顯著的優(yōu)勢。
應用:更快的模型培訓(特別是圖表); 做出預測時的能量和數(shù)據(jù)效率; 在邊緣運行AI系統(tǒng)(IoT設備); 永遠聽取物聯(lián)網(wǎng)設備; 云基礎設施即服務; 自主車輛,無人機和機器人。
公司:Graphcore,Cerebras,Isocline Engineering,Google(TPU),NVIDIA(DGX-1),Nervana Systems(Intel),Movidius(Intel),Scortex
主要研究人員:?空缺
6. 仿真環(huán)境
如前所述,為AI系統(tǒng)生成訓練數(shù)據(jù)通常是具有挑戰(zhàn)性的。更重要的是,如果AI在現(xiàn)實世界中對我們有用,就必須將其概括為許多情況。因此,開發(fā)模擬現(xiàn)實世界的物理和行為的數(shù)字環(huán)境將為我們提供測試床來測量和訓練AI的一般智力。這些環(huán)境將原始像素呈現(xiàn)給AI,然后采取行動以解決其已設置(或學習)的目標。在這些模擬環(huán)境中的培訓可以幫助我們了解AI系統(tǒng)如何學習,如何改進,還可以為我們提供可能轉移到現(xiàn)實應用中的模型。
應用:學習駕駛 ; 制造業(yè); 工業(yè)設計; 游戲開發(fā); 聰明的城市
公司:Improbable,Unity 3D,Microsoft(Minecraft),Google DeepMind / Blizzard,OpenAI,Comma.ai,虛幻引擎,Amazon Lumberyard
研究人員:Andrea Vedaldi(牛津)
原文鏈接: http://www.igeekbar.com/igeekbar/post/288.htm?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io