Open zerebom opened 3 years ago
https://irsworkshop.github.io/2020/publications/paper_2_%20Virani_Twitter.pdf
KDD2020-workshopのTwitter社の論文。ZOZOさんの勉強会でも取り上げられていた。
2段階の推薦モデル(two-tower networks)の学習を行う際に、1段目の学習対象を取得(Candidate Generation = CG)時に生じるデータセットバイアスに対策して、2段目の推薦の精度を向上させた。
Biasに対する考察
Two-Tower networksの学習に対する考察
Query embとCandidate embの類似度をそのまま、Engage確率として出力している(? Embedding Layerも一緒に逆伝搬で学習している(?
INSを増やすかつ、INSの目的変数=0として扱うとモデルの学習が難しくなる(0の割合が増えるから) その対策としてDeep Triplet Lossを利用する Query-Negative間がQuery-Positive間よりもユークリッド距離が大きくなるように、繰り返し最適化していく。 これを使うことで、INSの目的変数を0と置く必要がなくなる https://qiita.com/tancoro/items/35d0925de74f21bfff14
人気なアイテムの出現頻度を絞る。 頻度を絞るほど、様々なアイテムが提供されるが、AUCが下がる。 ユーザー体験を損なわない程度に様々なアイテムを出すにはどうすればよいか、閾値を探した。
Lessons Learned Addressing Dataset Bias in Model-Based Candidate Generation at Twitter
https://irsworkshop.github.io/2020/publications/paper_2_%20Virani_Twitter.pdf
KDD2020-workshopのTwitter社の論文。ZOZOさんの勉強会でも取り上げられていた。
2段階の推薦モデル(two-tower networks)の学習を行う際に、1段目の学習対象を取得(Candidate Generation = CG)時に生じるデータセットバイアスに対策して、2段目の推薦の精度を向上させた。
要点
Biasに対する考察
Two-Tower networksの学習に対する考察
アイテムの種類
モデル
Query embとCandidate embの類似度をそのまま、Engage確率として出力している(? Embedding Layerも一緒に逆伝搬で学習している(?![image](https://user-images.githubusercontent.com/38466611/121443529-9d062580-c9c8-11eb-8b9e-60b12e92d2b0.png)
結果
その他
Deep Triplet Loss
INSを増やすかつ、INSの目的変数=0として扱うとモデルの学習が難しくなる(0の割合が増えるから) その対策としてDeep Triplet Lossを利用する Query-Negative間がQuery-Positive間よりもユークリッド距離が大きくなるように、繰り返し最適化していく。 これを使うことで、INSの目的変数を0と置く必要がなくなる https://qiita.com/tancoro/items/35d0925de74f21bfff14
Popularity Correction
人気なアイテムの出現頻度を絞る。 頻度を絞るほど、様々なアイテムが提供されるが、AUCが下がる。 ユーザー体験を損なわない程度に様々なアイテムを出すにはどうすればよいか、閾値を探した。