tsinghua-fib-lab / CLSR

The official implementation of "Disentangling Long and Short-Term Interests for Recommendation" (WWW '22)
MIT License
70 stars 19 forks source link

对比学习实现的疑问 #22

Closed MerrillLi closed 10 months ago

MerrillLi commented 11 months ago

您好,我这里有三处疑虑希望跟您讨论交流。

  1. 文章中使用了Attention作为长期兴趣的编码器,LSTM+Attention作为短期兴趣的编码器,然而,他们的输入,都是等长的全历史序列。那么,Attention和LSTM+Attention这两个模块是如何体现所谓的对长期和短期的偏好的呢?还是说这种偏好是通过对比学习实现的?
  2. 文章中使用了Attention对全历史序列提取长期兴趣,用全历史序列的平均池化作为长期兴趣的代理。然而,我认为这个实现可能会使得Attention失效:因为可能存在平凡解——当Attention Score全部相等,且转换矩阵W为Identity的时候。您在实验中是否观察到这个问题?
  3. 这里的代理任务的设计,会不会使得长短期兴趣的编码能力最终退化到对长短期序列的平均池化的能力一致?
DavyMorgan commented 10 months ago

您好,长短期兴趣偏好是通过自监督对比学习实现的,代理任务的权重相比于行为预测的主任务更低,我在实验中没有观察到您所说的退化的情况。