zerebom / paper-books

@zerebom が読んだ技術書、論文をまとめています。推薦システム系が多いです。
https://github.com/zerebom/paper-books/issues
2 stars 0 forks source link

Lessons Learned Addressing Dataset Bias in Model-Based Candidate Generation at Twitter #48

Open zerebom opened 3 years ago

zerebom commented 3 years ago

Lessons Learned Addressing Dataset Bias in Model-Based Candidate Generation at Twitter

https://irsworkshop.github.io/2020/publications/paper_2_%20Virani_Twitter.pdf

KDD2020-workshopのTwitter社の論文。ZOZOさんの勉強会でも取り上げられていた。

2段階の推薦モデル(two-tower networks)の学習を行う際に、1段目の学習対象を取得(Candidate Generation = CG)時に生じるデータセットバイアスに対策して、2段目の推薦の精度を向上させた。

要点

Biasに対する考察

Two-Tower networksの学習に対する考察

アイテムの種類

モデル

Query embとCandidate embの類似度をそのまま、Engage確率として出力している(? Embedding Layerも一緒に逆伝搬で学習している(? image

結果

その他

Deep Triplet Loss

INSを増やすかつ、INSの目的変数=0として扱うとモデルの学習が難しくなる(0の割合が増えるから) その対策としてDeep Triplet Lossを利用する Query-Negative間がQuery-Positive間よりもユークリッド距離が大きくなるように、繰り返し最適化していく。 これを使うことで、INSの目的変数を0と置く必要がなくなる https://qiita.com/tancoro/items/35d0925de74f21bfff14

Popularity Correction

人気なアイテムの出現頻度を絞る。 頻度を絞るほど、様々なアイテムが提供されるが、AUCが下がる。 ユーザー体験を損なわない程度に様々なアイテムを出すにはどうすればよいか、閾値を探した。