Open hakubishin3 opened 2 years ago
https://arxiv.org/abs/1808.06414
Shuai Zhang, Yi Tay, Lina Yao, Aixin Sun
AAAI'19
ユーザーの行動履歴にもとづいて推薦を行う際に、短期ー長期の嗜好を十分にモデル化できた手法がない。
ユーザの履歴についてitem-itemの相互作用(おそらくattention mapのこと)を同時に考慮した推薦モデルの構築
NLPのタスクではTransformerの優位性が高い。近年では、all-MLPでTransformerを超えようとする試みが多くされるようになってきた(gMLP; Google, etc...)が、それでもまだTransformerにはモデルの表現力が及んでいない。Transformerの方ではあらたに、Mixture-of-Experts (MoE)を組み込むことで成功を収めており、この論文ではMoEを組み込んだ sparsely-activated-all-MLP (sMLP)を設計してTransformer超えを果たした
Transformerのself-attentionの役割をsMLPでは spatial gating unitで行う
他のTransformer-baseのモデルよりも短時間で良い性能が出ている。
Sequential Recommendationの包括的なサーベイ論文。50ページ近くある。以下のようなことがまとめてある。
Why
Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。
prev. https://github.com/wantedly/machine-learning-round-table/issues/135
What
話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!