karakuri-ai / paper-readings

repository to research the machine learning papers
2 stars 1 forks source link

[2019] Variance Reduction in Gradient Exploration for Online Learning to Rank #42

Open IkokObi opened 5 years ago

IkokObi commented 5 years ago

ざっくり言うと

キーワード

1. 情報

論文リンク

https://dl.acm.org/citation.cfm?id=3331264

著者

Huazheng Wang, Sonwoo Kim, Eric McCord-Snook, Qingyun Wu, Hongning Wang

投稿日付

2019/7/21-25 (SIGIR 2019, best paper)

2. 先行研究と比べてどこがすごい?

3. 技術や手法のキモはどこ?

4. どうやって有効だと検証した?

5. 議論はある?

6. 次に読むべき論文は?

IkokObi commented 5 years ago

7. 実装の詳細

重みパラメータwとする.特徴量はd次元で,線形モデルを考えている.

通常のDueling Bandit Gradient Descent(DBGD)

  1. d次元単位球面上から更新の勾配ベクトルuを取り,w' = w + δ * uを候補とする
  2. 新しい検索クエリを受けて,重みww'でそれぞれ検索を行い,検索結果を合わせて表示する(Interleaving methodという方法を用いる)
  3. ユーザのクリック情報を用いて,ww'のどちらがより適していたか(クリックされた文書の表示に寄与したか)を判断し,w'が勝った場合には,次の重みをw <--- w + α * uとアップデートする

Document Space Projected Dueling Bandit Gradient Descent

DSP-DGBTの特徴

IkokObi commented 5 years ago

8. データセット

  1. MQ2007
    • 約1,700個のクエリ
    • 46次元の特徴量
  2. MQ2008
    • 約800個のクエリ
    • 46次元の特徴量
  3. NP2003
    • 約150個のクエリ
    • クエリに対して1000以上の文書が評価されている
    • 64次元の特徴量
  4. MSLR-WEB10K
    • 10,000個のクエリ
    • 136次元の特徴量
  5. Yahoo! Learning to Rank Challenge dataset
    • 約36,000個のクエリ
    • 約883,000個の文書が評価されている
    • 700次元の特徴量

Onlineのシミュレーションモデルについて

IkokObi commented 5 years ago

9. 結果の詳細

Online Cumulative NDCG@の結果

スクリーンショット 2019-08-16 17 02 37

Offline NDCG@10の結果

スクリーンショット 2019-08-16 17 02 52
IkokObi commented 5 years ago

雑感&メモ