大佬的面試問題解析

原帖鏈接:
https://www.nowcoder.com/discuss/97549?type=0&order=0&pos=6&page=2

1.gbdt,xgboost,lgbm的區別(阿里,頭條)
參考之前整理過的帖子:http://www.lxweimin.com/p/f73a80c22198

2.梯度下降法,牛頓法,擬牛頓法區別(阿里)
https://www.cnblogs.com/shixiangwan/p/7532830.html

3.SGD,ADAM區別(百度)
http://www.lxweimin.com/p/70e04c02985c

4.什么是梯度消失,飽和,如何改善(阿里)
https://blog.csdn.net/qq_25737169/article/details/78847691
總結了以下幾個方面:
1)預訓練加微調
2)梯度剪切、正則
3)relu、leakrelu、elu等激活函數
4)batchnorm
5)殘差結構
6)LSTM

5.lr的推導(騰訊)

6.SVM目標函數,為什么轉為對偶(騰訊,百度)
https://www.zhihu.com/question/282506397/answer/427041794
主要是為了得到內積的形式,方便引入核函數

7.定義class mlp(頭條)

8.kd tree(騰訊)

9.FFM的優化(百度)

10.解釋RESNET(百度,阿里)
https://zhuanlan.zhihu.com/p/31852747

11.mapreduce思想(騰訊)

12.解釋BN(頭條,百度)
https://blog.csdn.net/malefactor/article/details/51476961

13.非結構化文本處理方法(阿里)

14.bagging.boosting.stacking區別(阿里)

15.CNN與RNN的區別(阿里)

16.如何防止過擬合(頭條)

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容