機(jī)器學(xué)習(xí)
ROC曲線、AUC、PR曲線等
決策樹(shù),ID3、C4.5、CART
決策樹(shù),隨機(jī)森林、Adaboost、GBDT
決策樹(shù),XGBoost、LightGBM
邏輯回歸,L1L2正則化
熵,KL散度,交叉熵
micro-f1, macro-f1
神經(jīng)網(wǎng)絡(luò)
BP算法
優(yōu)化器
注意力和Softmax的兩點(diǎn)有趣發(fā)現(xiàn):魯棒性和信息量
softmax反向傳播推導(dǎo)
交叉熵函數(shù)優(yōu)于均方差函數(shù)的推導(dǎo)和tf/keras實(shí)現(xiàn)
為什么分類問(wèn)題用交叉熵?fù)p失而不用均方誤差損失?
學(xué)習(xí)曲線
推薦系統(tǒng)中的最小樣本量和參數(shù)估計(jì)
autoDim
deep hash embedding
embedding維度選擇
梯度消失、梯度爆炸與不良的初始化
權(quán)重初始化方法Lecun、Xavier與He Kaiming
batch norm
bn與layer norm
l1l2正則,dropout
Transformer/attention is all you need
transformer解析
transformer中的attention為什么scaled
attention/transformer
nlp中的gelu
Transformer位置編碼
bert
Bert/Transformer幾個(gè)細(xì)節(jié)
attention與推薦
使用Keras實(shí)現(xiàn)attention/transformer
推薦模型中的attention
多目標(biāo)排序在愛(ài)奇藝短視頻推薦中的應(yīng)用
youtube預(yù)期播放時(shí)長(zhǎng)建模
快手播放時(shí)長(zhǎng)建模
推薦模型在線學(xué)習(xí)
LHUC動(dòng)態(tài)權(quán)重
推薦算法位置糾偏
阿里媽媽模型演化
TDM樹(shù)形召回
ETA: 用戶長(zhǎng)序列處理
阿里SDM召回
阿里DSIN排序
tf1.x教程
tfDataset
tfRecord
TensorFlow中層API:Datasets+TFRecord
美團(tuán)點(diǎn)評(píng)搜索相關(guān)性模型演進(jìn)
微博推薦實(shí)時(shí)大模型的技術(shù)演進(jìn)
對(duì)比學(xué)習(xí)
谷歌雙塔研究:頂層參數(shù)共享使雙塔在同一個(gè)向量空間
訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)時(shí)候,出現(xiàn)NaN是什么原因,怎么避免
多目標(biāo)
多目標(biāo)
GCN
GCN
阿里EGES召回
hash embedding
hash embedding
deep hash embedding
senet
Fibinet
esmm
mmoe
mmoe
視頻播放建模
連續(xù)變量離散化的原因
embedding維數(shù)選擇
Group Norm
多任務(wù)學(xué)習(xí)GradNorm
分類問(wèn)題AUC為0.5的原因及解決方案
驗(yàn)證集的loss小于訓(xùn)練集的loss的原因分析
難樣本挖掘
gpu利用率低原因
如何選擇學(xué)習(xí)率和batch_size
深度強(qiáng)化學(xué)習(xí)簡(jiǎn)介
深度強(qiáng)化學(xué)習(xí)簡(jiǎn)介2
Huggingface用例簡(jiǎn)介
prompt-tuning
p-tuning v2
激活函數(shù)
常用激活函數(shù)
激活函數(shù)非0中心導(dǎo)致的問(wèn)題
Dead ReLU Problem相關(guān)
softmax以及與ce的求導(dǎo)
Softmax函數(shù)和Sigmoid函數(shù)的區(qū)別與聯(lián)系
測(cè)試集auc高于訓(xùn)練集
模型中的特征重要性
樣本數(shù)量和模型參數(shù)量
使用 tf.data API 提升性能
分析 tf.data 性能
tensorboard使用
使用 Profiler 優(yōu)化 TensorFlow 性能
TFRecord
其他
hive中join下on和where
Java程序占用 CPU 過(guò)高排查方法
面試
八股1.1
八股1.2
八股1.3
八股2.1
八股2.2
八股2.3
八股2.4
八股2.5
面經(jīng)1
面經(jīng)2