OpenAI發布「塊稀疏」GPU內核:實現文本情感分析與圖像生成建模當前最優水平

姓名:張萌? ? ? ? ? 學號17021211113

轉自:https://mp.weixin.qq.com/s/O-NDsFs6AOwl43LyevXtzg

【嵌牛導讀】:近日,OpenAI 在其一篇題為《Block-Sparse GPU Kernels》的博文中發布了一個低級別神經網絡架構的高度優化 GPU 內核,并且這個神經網絡帶有「塊稀疏」(block-sparse)權重。根據已選的稀疏性,這些內核可以比 cuBLAS 或 cuSPARSE 運行快幾個數量級,并在文本情感分析與文本、圖像生成建模方面取得了當前最優結果。

【嵌牛鼻子】:圖像生成建模

【嵌牛提問】:這些內核在文本情感分析與文本、圖像生成建模方面有什么進展?

【嵌牛正文】:近日,OpenAI 在其一篇題為《Block-Sparse GPU Kernels》的博文中發布了一個低級別神經網絡架構的高度優化 GPU 內核,并且這個神經網絡帶有「塊稀疏」(block-sparse)權重。根據已選的稀疏性,這些內核可以比 cuBLAS 或 cuSPARSE 運行快幾個數量級,并在文本情感分析與文本、圖像生成建模方面取得了當前最優結果。機器之心對博文進行了編譯,GitHub 鏈接及論文摘要請見文中。

GitHub 地址:https://github.com/openai/blocksparse

論文地址:https://s3-us-west-2.amazonaws.com/openai-assets/blocksparse/blocksparsepaper.pdf

深度學習模型架構和算法的發展在很大程度上受限于基本操作的高效 GPU 實現的可用性。這其中的一個問題是缺乏稀疏線性操作的高效 GPU 實現,它也正是今天我們發布的內容,以及用其實現一些稀疏模式的初步結果。這些初步結果很有潛在價值但還存在不確定性,因此我們想邀請社區加入進來,共同解決這一難題。


密集層(左)可由寬而稀疏的層(中)或者深而稀疏的層(右)替代,并同時近似地保持計算時間。

與密集權重矩陣相反,稀疏權重矩陣具有大量為零的項目。稀疏權重矩陣作為模型的構建模塊很有吸引力,因為矩陣乘法和稀疏塊卷積的計算成本僅與非零塊的數量成比例。例如,稀疏使得某些神經網絡的訓練成為可能,這些神經網絡比給定相同參數和計算預算的其它網絡更寬、更深,例如具有數萬個隱藏單元的 LSTM(目前訓練的最大的 LSTM 只有數千個隱藏單元)。

??????????????????????????????????????????????????????????????????????????? 內核


密集權重矩陣(左)和塊稀疏(中)權重矩陣的可視化,其中白色代表零值權重。

內核允許在全連接層和卷積層高效地使用塊稀疏權重(如上所示)。對于卷積層,內核允許輸入和輸出特征維度的稀疏性;連接性在空間維度上不受影響。稀疏性是在塊的層面被定義的(如上右圖所示),并已經優化為 8x8(本實例中)、 16x16 或 32x32 的塊大小。在塊的層面上,稀疏性模式是完全可配置的。由于內核跳過零值塊的計算,所以計算成本只與非零權重的數量成正比,而不是輸入/輸出特征的數量。存儲參數的成本也只與非零權重的數量成正比。


不同級別的稀疏性相對于 cuBLAS 的加速效果,其使用了寬狀態(12288 個隱藏單元)、32x32 的塊大小和 32 的批尺寸。該對比實驗使用英偉達 Titan X Pascal GPU 和 CUDA 8 完成。和 cuSPARSE 對比的加速效果更佳。

使用稀疏內核

以下是在 TensorFlow 中進行稀疏矩陣乘法運算的示例代碼:

小世界(Small-World)LSTM

塊稀疏內核的一個很有趣的應用是用于創建小世界(small-world)神經網絡。小世界圖的連接方式是圖中的任意兩個節點之間僅通過少量幾步就能連接,即使圖中有數百萬個節點。我們實現小世界連接的動機是,即使具有高度的稀疏度,我們仍然希望信息在網絡中能快速地傳播。大腦中的連接模式就是小世界的,這使我們好奇同樣的性質能不能用于提高 LSTM 的性能。我們使用小世界稀疏連接高效地訓練了擁有大約兩萬個隱藏單元(與擁有相似參數數量的密集網絡相比具有 5 倍的寬度)的 LSTM,提升了文本生成建模和半監督情緒分類的結果,詳情參見我們的論文。

在小世界圖中,小世界圖的連接方式是圖中的任意兩個節點之間僅通過少量幾步就能連接,即使圖中有數百萬個節點。以上動圖展示了一個二維 Watts-Strogatz 小世界圖上的中心節點(像素)的激活擴散現象(隨機平滑灰度僅僅是為了審美效果)。在這個圖中,節點之間的平均路徑長度小于 5,和我們在 LSTM 實驗中使用的 Barabasi-Albert 圖相似。

情緒表征學習

通過使用在我們的情緒神經實驗(Unsupervised Sentiment Neuron,https://blog.openai.com/unsupervised-sentiment-neuron/)中的設置,我們使用近似相等的參數數量訓練 LSTM,并比較了使用密集權重矩陣的模型和一個塊稀疏的變體。稀疏模型在所有的情緒數據集上的性能都超越了相對的密集模型。我們的稀疏模型將在文檔級 IMDB 數據集上的當前最佳性能從 5.91% 誤差率(Miyato 等,2016)降低到了 5.01%。相對于我們之前的結果(Unsupervised Sentiment Neuron,僅在短句級數據集上獲得最佳結果),這個提升是很有潛在價值的。


在密集特征上訓練的線性模型和稀疏生成模型的情緒分類錯誤率(%),兩者擁有近似相等的參數總數。

壓縮結果

通過使用稀疏和寬的 LSTM,在我們實驗中的每個特征占用的比特數從 1.059 下降到了 1.048(在相等參數數量的前提下,即大約 1 億個參數)。擁有塊稀疏線性層的架構也可以提高相對于使用密集連接線性層的結果。我們對在 CIFAR-10 自然圖像上訓練的 PixelCNN++模型做了一個簡單的修改。用稀疏內核替代了常規的 2D 卷積核,同時增加網絡深度,但保持其它超參數不變,使每個維度占用的比特數從 2.92 下降到 2.90,達到了在該數據集上的當前最佳。

研究方向

我們在這里提幾個對未來研究的建議。

大多數神經網絡的權重(連接)在訓練完成之后都可以修剪掉。如果能結合剪枝技術和我們的稀疏內核,能獲得怎樣的加速效果呢?

在生物大腦中,除了連接強度以外,網絡的稀疏結構部分地在成長過程中確定。是否可以在人工神經網絡中實現類似的行為,即不僅將梯度用于學習連接強度,還用于尋找最優的稀疏結構。最新的一篇論文提出了一種方法用于學習塊稀疏 RNN(https://arxiv.org/abs/1711.02782)。我們近日也提出了一種算法用于在神經網絡中進行 L0 正則化,可用于實現這一目標。

我們訓練了擁有成千上萬個隱藏單元的 LSTM,可以更好地處理文本。更一般地說,稀疏層使得訓練擁有大型權重矩陣(但參數數量、計算開銷和相對的密集模型相等)的模型成為可能。這種模型能為哪些領域帶來顯著的進步呢?

論文:GPU Kernels for Block-SparseWeights

論文鏈接:https://s3-us-west-2.amazonaws.com/openai-assets/blocksparse/blocksparsepaper.pdf

摘要:我們正在發布一個低級別神經網絡架構(帶有塊稀疏(block-sparse)權重)的高度優化 GPU 內核,它允許在權重矩陣中帶有靈活可配置的塊稀疏性模式的線性層(包括卷積層)的高效評估與微分。我們發現根據已選稀疏性,這些內核可以比 cuBLAS 或 cuSPARSE 運行快幾個數量級。我們借助這些內核取得了文本情感分析與文本、圖像生成建模方面的當前最優結果。通過公開發布這些內核,我們希望可以促進模型和算法設計的進一步發展。

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,505評論 6 533
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,556評論 3 418
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,463評論 0 376
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,009評論 1 312
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,778評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,218評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,281評論 3 441
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,436評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,969評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,795評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,993評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,537評論 5 359
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,229評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,659評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,917評論 1 286
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,687評論 3 392
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,990評論 2 374

推薦閱讀更多精彩內容

  • 引言 今天來分析的是騰訊國家隊級別的產品騰訊視頻。 說到視頻,市場競爭是真的殘酷,市場常有產品出,各領風騷小幾年。...
    fou7閱讀 24,589評論 14 48
  • 丶我在想對我生命有幫助的人,如果沒有誰我就沒有我,的生命,那就是我五歲時候那個,在我頭上挖瘡的那個醫生吧! 在濮存...
    lygly9閱讀 139評論 0 0
  • 她爺爺等著手術的錢,她需要錢,現在需要的就只是錢而已。 而不是所謂的為什么要分手。 左曄最后淡淡的看了她一眼,便轉...
    莪愛禰玲閱讀 296評論 0 0
  • 作為一個三十而立的人,是華夏子孫,是父母的孩子,也是人家的妻子,也是孩子的母親,是公司里的員工,是友人的友人,什么...
    HYDHYDHYD閱讀 1,033評論 2 51