nndl / solutions

《神经网络与深度学习》课后习题答案-分享讨论
695 stars 79 forks source link

习题4-8 #14

Open fecet opened 4 years ago

fecet commented 4 years ago

将 w​ 初始化为 0 会使得同一层的神经元在计算时没有区别性, 具有同样的梯度, 产生同样的权重更新.

YanHao22 commented 2 years ago

有没有这种原因呢? 如果损失函数没有正则化项,例如损失函数取交叉熵,那么初始化为零会导致更新步长为0,根本动不了

NneurotransmitterR commented 2 years ago

若直接初始化参数为全0或同一个常数,则在前向计算时,所有隐藏层神经元都具有相同的激活值,在反向传播时,所有的神经元的更新也相同,这会使得隐含神经元没有任何区分度,变成实际上相当于只有一个隐含神经元的网络。

NneurotransmitterR commented 2 years ago

随机初始化的分布同样需要考虑,否则可能会导致梯度消失或梯度爆炸问题。