notes2

機(jī)器學(xué)習(xí)

ROC曲線、AUC、PR曲線等
決策樹(shù),ID3、C4.5、CART
決策樹(shù),隨機(jī)森林、Adaboost、GBDT
決策樹(shù),XGBoost、LightGBM
邏輯回歸,L1L2正則化
熵,KL散度,交叉熵
micro-f1, macro-f1

神經(jīng)網(wǎng)絡(luò)

連續(xù)型特征處理
決策樹(shù)分箱

BP算法
優(yōu)化器
注意力和Softmax的兩點(diǎn)有趣發(fā)現(xiàn):魯棒性和信息量
softmax反向傳播推導(dǎo)
交叉熵函數(shù)優(yōu)于均方差函數(shù)的推導(dǎo)和tf/keras實(shí)現(xiàn)
為什么分類問(wèn)題用交叉熵?fù)p失而不用均方誤差損失?

學(xué)習(xí)曲線
推薦系統(tǒng)中的最小樣本量和參數(shù)估計(jì)

FM模型原理
FM原理及tf實(shí)現(xiàn)

autoDim
deep hash embedding
embedding維度選擇

梯度消失、梯度爆炸與不良的初始化
權(quán)重初始化方法Lecun、Xavier與He Kaiming
batch norm
bn與layer norm
l1l2正則,dropout

logistic regression
wide&deep

mse or mae

Transformer/attention is all you need
transformer解析
transformer中的attention為什么scaled
attention/transformer
nlp中的gelu
Transformer位置編碼
bert
Bert/Transformer幾個(gè)細(xì)節(jié)
attention與推薦
使用Keras實(shí)現(xiàn)attention/transformer
推薦模型中的attention

多目標(biāo)排序在愛(ài)奇藝短視頻推薦中的應(yīng)用
youtube預(yù)期播放時(shí)長(zhǎng)建模
快手播放時(shí)長(zhǎng)建模
推薦模型在線學(xué)習(xí)
LHUC動(dòng)態(tài)權(quán)重
推薦算法位置糾偏
阿里媽媽模型演化
TDM樹(shù)形召回
ETA: 用戶長(zhǎng)序列處理
阿里SDM召回
阿里DSIN排序
tf1.x教程
tfDataset
tfRecord
TensorFlow中層API:Datasets+TFRecord
美團(tuán)點(diǎn)評(píng)搜索相關(guān)性模型演進(jìn)
微博推薦實(shí)時(shí)大模型的技術(shù)演進(jìn)
對(duì)比學(xué)習(xí)

谷歌雙塔研究:頂層參數(shù)共享使雙塔在同一個(gè)向量空間
訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)時(shí)候,出現(xiàn)NaN是什么原因,怎么避免
多目標(biāo)
多目標(biāo)
GCN
GCN
阿里EGES召回
hash embedding
hash embedding
deep hash embedding
senet
Fibinet
esmm
mmoe
mmoe
視頻播放建模
連續(xù)變量離散化的原因
embedding維數(shù)選擇
Group Norm
多任務(wù)學(xué)習(xí)GradNorm
分類問(wèn)題AUC為0.5的原因及解決方案
驗(yàn)證集的loss小于訓(xùn)練集的loss的原因分析
難樣本挖掘
gpu利用率低原因
如何選擇學(xué)習(xí)率和batch_size

深度強(qiáng)化學(xué)習(xí)簡(jiǎn)介
深度強(qiáng)化學(xué)習(xí)簡(jiǎn)介2

Huggingface用例簡(jiǎn)介
prompt-tuning
p-tuning v2

激活函數(shù)

常用激活函數(shù)
激活函數(shù)非0中心導(dǎo)致的問(wèn)題
Dead ReLU Problem相關(guān)
softmax以及與ce的求導(dǎo)
Softmax函數(shù)和Sigmoid函數(shù)的區(qū)別與聯(lián)系

測(cè)試集auc高于訓(xùn)練集
模型中的特征重要性
樣本數(shù)量和模型參數(shù)量
使用 tf.data API 提升性能
分析 tf.data 性能
tensorboard使用
使用 Profiler 優(yōu)化 TensorFlow 性能
TFRecord

其他

hive中join下on和where
Java程序占用 CPU 過(guò)高排查方法

面試

leetcode

八股1.1
八股1.2
八股1.3
八股2.1
八股2.2
八股2.3
八股2.4
八股2.5
面經(jīng)1
面經(jīng)2

互聯(lián)網(wǎng)大廠的這些推薦算法面試題,你都能答上來(lái)嗎?

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 召回&排序 特征 從分布類型看,分為連續(xù)類型、離散類型、序列類型。從特征主體劃分,可以分為User特征、Item特...
    lym94閱讀 830評(píng)論 0 0
  • 1.前言 參考了:1、https://zhuanlan.zhihu.com/p/26306795[https://...
    曦寶閱讀 440評(píng)論 0 0
  • 101.深度學(xué)習(xí)(CNN RNN Attention)解決大規(guī)模文本分類問(wèn)題。 用深度學(xué)習(xí)(CNN RNN Att...
    大黃大黃大黃閱讀 14,282評(píng)論 2 42
  • 本文依次講解YOLOv1,v2,v3。博客地址https://blog.csdn.net/hancoder/art...
    HAN_望向閱讀 7,927評(píng)論 2 4
  • DIN 思路從輸入特征中獲取用戶歷史行為,并篩選出對(duì)預(yù)估任務(wù)有效的特征進(jìn)行權(quán)重分配,進(jìn)而對(duì)當(dāng)前商品廣告與用戶歷史行...
    林桉閱讀 1,128評(píng)論 0 0

友情鏈接更多精彩內(nèi)容