Open hakubishin3 opened 2 years ago
参考
これまでのsequential recommenderでは各ユーザーの主な興味のみを重視して推薦を行い、精度の上昇が追求されてきた。しかし、多くのユーザーにとって興味は単一のものではない。この論文ではユーザーの複数の興味に着目した推薦を行うことによって多様なアイテムを推薦することを目的としている。
訓練時に用いられている損失関数は
第一項目が精度に関するロス、2項目が推薦アイテムの多様性に関するロス。3、4項目は制約関数。3項目は抽出された興味がかぶらないようにするための制約で、4項目が推薦アイテムの中で、ある特定の興味から推薦されたアイテム数が多くならないようにするための制約。λeはハイパラ。
https://arxiv.org/abs/1902.09041
Cagri Ozcaglar, Sahin Geyik, Brian Schmitz, Prakhar Sharma, Alex Shelkovnykov, Yiming Ma, Erik Buchanan
WWW 2019
タレントサーチでは、求職者と採用担当者またはリクルーターを結びつける。同じシステムの異なるユーザーに対して推薦をパーソナライズするために、一般化線形混合(GLMix)モデルがしばしば利用されている。 GLMix モデルはエンティティの ID に基づいて線形係数の異なるセットを検索するという点で、決定木に似た働きをするが、特徴は依然として線形的に組み合わされる。 一方、GBDTのような非線形モデルは、必要な処理能力、学習した各モデルのサイズ、およびパーソナライゼーションに利用できるデータが限られている場合にオーバーフィッティングの恐れがある。
エンティティレベルでのパーソナライズと、非線形な特徴量の活用の両立
https://dl.acm.org/doi/10.1145/3240323.3240349
男女で重みが異なるという一例。男性はPR(推薦される側の嗜好)を重視、女性はCF(推薦を受ける側の嗜好)を重視してオンラインデーティングサービスを利用している傾向が見える。
Why
Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。
prev. https://github.com/wantedly/machine-learning-round-table/issues/148
What
話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!