AkihikoWatanabe / paper_notes

たまに追加される論文メモ
https://AkihikoWatanabe.github.io/paper_notes
17 stars 0 forks source link

BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer, Sun+, CIKM2019 #347

Open AkihikoWatanabe opened 3 years ago

AkihikoWatanabe commented 3 years ago

https://arxiv.org/pdf/1904.06690.pdf

AkihikoWatanabe commented 3 years ago

BERTをrecsysのsequential recommendationタスクに転用してSoTA。 しっかり読んで無いけどモデル構造はほぼBERTと一緒。 異なる点は、Training時にNext Sentence Predictionは行わずClozeのみ行なっているという点。Clozeとは、実質Masked Language Modelであり、sequenceの一部を[mask]に置き換え、置き換えられたアイテムを左右のコンテキストから予測するタスク。異なる点としては、sequential recommendationタスクでは、次のアイテムを予測したいので、マスクするアイテムの中に、sequenceの最後のアイテムをマスクして予測する事例も混ぜた点。

もう一個異なる点として、BERT4Recはend-to-endなモデルで、BERTはpretraining modelだ、みたいなこと言ってるけど、まあ確かに形式的にはそういう違いはあるけど、なんかその違いを主張するのは違和感を覚える…。 sequential recommendationで使うuser behaviorデータでNext item predictionで学習したいことが、MLMと単に一致していただけ、なのでは…。

AkihikoWatanabe commented 2 years ago

BERT4Recのモデル構造。next item predictionしたいsessionの末尾に [mask] をconcatし、[MASK]部分のアイテムを予測する構造っぽい? image

AkihikoWatanabe commented 2 years ago

オリジナルはtensorflow実装 pytorchの実装はこちら:https://github.com/jaywonchung/BERT4Rec-VAE-Pytorch/tree/master/models