issues
search
zhougr1993
/
DeepInterestNetwork
1.61k
stars
559
forks
source link
Attention 中为什么用 softmax 把权重归一? 和原论文的表述不一致
#91
Open
wenmin-wu
opened
2 years ago
wenmin-wu
commented
2 years ago
原论文中说不要求权重和为1,从来保留用户兴趣的强烈程度,但是
代码实现中用了softmax
,这样就归一了
xu-song
commented
2 years ago
+1
原论文中说不要求权重和为1,从来保留用户兴趣的强烈程度,但是 代码实现中用了softmax ,这样就归一了