librahu / MCRec

Source code for KDD 2018 paper "Leverage Meta-path based Context for Top-N Recommendation with a Neural Co-Attention Model"
128 stars 49 forks source link

麻烦你,我想问一下,论文4.4.1中,基于元路径上下文的注意力中,两层注意力分别表示什么意思啊?即公式(6)(7). #9

Open yeyixia opened 4 years ago

yeyixia commented 4 years ago

麻烦你,我想问一下,论文4.4.1中,基于元路径上下文的注意力中,两层注意力分别表示什么意思啊?即公式(6)(7).

librahu commented 4 years ago

用两层神经网络来学习用户和item对每条元路径的偏好

yeyixia commented 4 years ago

用两层神经网络来学习用户和item对每条元路径的偏好

不好意思,还想问一下,ml-100k.bpr.user_embedding、ml-100k.bpr.item_embedding、ml-100k.bpr.type_embedding。这三种节点的embedding,都是通过参考文献[11]中的Neural collaborative filtering实现的么? 但是没太弄懂需要type_embedding/type_feature是为什么?

librahu commented 4 years ago

就是HIN中各类节点的表示

Chuan1997 commented 3 years ago

用两层神经网络来学习用户和item对每条元路径的偏好

不好意思,还想问一下,ml-100k.bpr.user_embedding、ml-100k.bpr.item_embedding、ml-100k.bpr.type_embedding。这三种节点的embedding,都是通过参考文献[11]中的Neural collaborative filtering实现的么? 但是没太弄懂需要type_embedding/type_feature是为什么?

您好,您知道怎么生成这些embedding吗?用何向南老师那篇文章的look-up embedding?

jzhou3700 commented 2 years ago

不懂怎么生成的其他节点的表示的