zhougr1993 / DeepInterestNetwork

1.61k stars 559 forks source link

Attention 中为什么用 softmax 把权重归一? 和原论文的表述不一致 #91

Open wenmin-wu opened 2 years ago

wenmin-wu commented 2 years ago
image

原论文中说不要求权重和为1,从来保留用户兴趣的强烈程度,但是 代码实现中用了softmax ,这样就归一了

xu-song commented 2 years ago

+1