zhougr1993 / DeepInterestNetwork

1.62k stars 558 forks source link

为什么要最后要再加一个bias呢? #22

Closed czisok closed 5 years ago

czisok commented 5 years ago

您好,看了你写的代码,在模型训练和预测的时候:self.logits = i_b + d_layer_3_i和elf.logits_sub = tf.sigmoid(item_b[:predict_ads_num] + d_layer_3_sub)都额外加了一个偏差,TensorFlow的dense层不是有bias吗,为什么还有在最后输出的时候再加一个? 希望得到您的解答。

zhougr1993 commented 5 years ago

因为蠢~

sudongxiang commented 5 years ago

因为蠢~

同问,这里是怎么加的,本人已经实现了DIN,但是这个bias不知道怎么加。加上这个bias能提升多少?

andrew-zzz commented 5 years ago

@sudongxiang @czisok 摆脱进去看看交叉墒的源码 里面有套sigmoid 但并没有加bias

czisok commented 5 years ago

@sudongxiang @czisok 摆脱进去看看交叉墒的源码 里面有套sigmoid 但并没有加bias

Thanks