2018 年大疆機(jī)器學(xué)習(xí)算法工程師春季提前批筆試題

一、單項(xiàng)選擇題

  1. SVM 分類(lèi)和深度學(xué)習(xí)分類(lèi)
    B. SVM 只能應(yīng)用于線(xiàn)性分類(lèi)

錯(cuò)誤,SVM 可以應(yīng)用于線(xiàn)性分類(lèi)和非線(xiàn)性分類(lèi)問(wèn)題,取決于核函數(shù)的選取

C. SVM 是凸問(wèn)題,深度學(xué)習(xí)都是非凸問(wèn)題

正確,深度學(xué)習(xí)算法的目標(biāo)函數(shù),幾乎全都是非凸的。

  1. L1 和 L2 正則化區(qū)別


  2. SVM 決策邊界
    四個(gè)點(diǎn)坐標(biāo)為(1,1),(1,0),(-1,-1),(-1,0),用 SVM 分類(lèi)的決策邊界是
    A. y = x
    B. x = 0
    C. y = -x
    D. y = 0

SVM 是一種優(yōu)化的分類(lèi)算法,其動(dòng)機(jī)是尋找一個(gè)最佳的決策邊界,使得從決策邊界與各組數(shù)據(jù)之間存在 margin ,并且需要使各側(cè)的 margin 最大化。本題目四個(gè)選項(xiàng)的 margin 分別為 0、1、0.707、0,因此選擇 B。

二、多項(xiàng)選擇題

  1. 無(wú)監(jiān)督學(xué)習(xí)方法

強(qiáng)化學(xué)習(xí)、K-means 聚類(lèi)、自編碼、受限波爾茲曼機(jī)等

  1. 增大感受野方法

dilated 卷積(空洞卷積)、池化、增大卷積核

  1. 正則化方法

B. 減少神經(jīng)網(wǎng)絡(luò)層數(shù)
錯(cuò)誤,減少網(wǎng)絡(luò)層數(shù)實(shí)際上是減弱了網(wǎng)絡(luò)的擬合能力
D. 減小權(quán)重衰減參數(shù)
錯(cuò)誤,應(yīng)該是增大權(quán)重衰減系數(shù),類(lèi)似于 L2 正則化項(xiàng)中參數(shù) lambda 的作用

三、填空題

  1. 經(jīng)過(guò)下列卷積操作后,3×3 conv -> 3×3 conv -> 2×2 maxpool -> 3×3 conv,卷積步長(zhǎng)為 1,沒(méi)有填充,輸出神經(jīng)元的感受野是多大?


  1. 100×100×3,3×3 卷積核,輸出是 50×50×10,算進(jìn)行了多少次乘-加操作?

輸出的每個(gè)像素點(diǎn)都要經(jīng)過(guò) 3×3×3 = 27 次乘-加操作,因此總共需要進(jìn)行 50×50×10×27 次乘-加操作。

四、簡(jiǎn)答題

  1. 簡(jiǎn)述梯度下降法和牛頓法的優(yōu)缺點(diǎn)

隨機(jī)梯度下降法:適用于樣本量大的情況,需要內(nèi)存??;但每一步可能并不是向著最優(yōu)解方向
牛頓法:收斂速度快;但對(duì)目標(biāo)函數(shù)有嚴(yán)格要求,必須有連續(xù)的一、二階偏導(dǎo)數(shù),計(jì)算量大

  1. 正樣本 10000,負(fù)樣本 1000,怎樣訓(xùn)練

正負(fù)樣本懸殊具體數(shù)據(jù)記不太清楚了,異常檢測(cè)算法(高斯分布算法),可以適用于異常(也就是負(fù)樣本)比較少的情況。

  1. Relu 相對(duì)于 sigmoid 函數(shù)的優(yōu)缺點(diǎn)

優(yōu)點(diǎn):分段線(xiàn)性,梯度較大,收斂速度快;Relu 會(huì)使一部分神經(jīng)元的輸出為 0,會(huì)造成了網(wǎng)絡(luò)的稀疏性
缺點(diǎn):某些神經(jīng)元可能永遠(yuǎn)不會(huì)被激活,導(dǎo)致相應(yīng)的參數(shù)永遠(yuǎn)不能被更新

  1. 正則化方法

數(shù)據(jù)增強(qiáng)(Data Augmentation)、L1 正則化、L2 正則化、Dropout、Drop Connect 和早停(Early stop)

  1. 說(shuō)出物體檢測(cè)、人臉識(shí)別、物體分割等某一領(lǐng)域的常見(jiàn)算法,并用一兩句話(huà)簡(jiǎn)述其中一種算法的原理

物體檢測(cè):YOLO、R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN、SSD
YOLO 算法直接利用一個(gè)卷積神經(jīng)網(wǎng)絡(luò)就輸出物體所在的位置以及所屬的類(lèi)別,是一個(gè)端到端的系統(tǒng),因此檢測(cè)速度特別快,可以達(dá)到實(shí)時(shí)性的要求。

五、編程題

  1. 輸入序列 a, 判斷是否存在 i < j < k, 滿(mǎn)足 a[i] < a[k] < a[j],并寫(xiě)出算法復(fù)雜度

思路:三個(gè)循環(huán),在最內(nèi)層循環(huán)進(jìn)行一個(gè)判斷,算法復(fù)雜度 O(n^3)

  1. 輸入多邊形頂點(diǎn)坐標(biāo) List,判斷是否為凸多邊形(如果把一個(gè)多邊形的所有邊中,任意一條邊向兩方無(wú)限延長(zhǎng)成為一直線(xiàn)時(shí),其他各邊都在此直線(xiàn)的同旁,那么這個(gè)多邊形就叫做凸多邊形)

思路:遍歷所有相鄰頂點(diǎn),以?xún)牲c(diǎn)坐標(biāo)求得直線(xiàn)方程,判斷其余頂點(diǎn)是否在直線(xiàn)同側(cè)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容