原帖鏈接:
https://www.nowcoder.com/discuss/97549?type=0&order=0&pos=6&page=2
1.gbdt,xgboost,lgbm的區(qū)別(阿里,頭條)
參考之前整理過的帖子:http://www.itdecent.cn/p/f73a80c22198
2.梯度下降法,牛頓法,擬牛頓法區(qū)別(阿里)
https://www.cnblogs.com/shixiangwan/p/7532830.html
3.SGD,ADAM區(qū)別(百度)
http://www.itdecent.cn/p/70e04c02985c
4.什么是梯度消失,飽和,如何改善(阿里)
https://blog.csdn.net/qq_25737169/article/details/78847691
總結(jié)了以下幾個(gè)方面:
1)預(yù)訓(xùn)練加微調(diào)
2)梯度剪切、正則
3)relu、leakrelu、elu等激活函數(shù)
4)batchnorm
5)殘差結(jié)構(gòu)
6)LSTM
5.lr的推導(dǎo)(騰訊)
6.SVM目標(biāo)函數(shù),為什么轉(zhuǎn)為對偶(騰訊,百度)
https://www.zhihu.com/question/282506397/answer/427041794
主要是為了得到內(nèi)積的形式,方便引入核函數(shù)
7.定義class mlp(頭條)
8.kd tree(騰訊)
9.FFM的優(yōu)化(百度)
10.解釋RESNET(百度,阿里)
https://zhuanlan.zhihu.com/p/31852747
11.mapreduce思想(騰訊)
12.解釋BN(頭條,百度)
https://blog.csdn.net/malefactor/article/details/51476961
13.非結(jié)構(gòu)化文本處理方法(阿里)
14.bagging.boosting.stacking區(qū)別(阿里)
15.CNN與RNN的區(qū)別(阿里)
16.如何防止過擬合(頭條)