Open TimVan1596 opened 3 years ago
出处:第一门课 神经网络和深度学习(Neural Networks and Deep Learning) -第二周:神经网络的编程基础(Basics ofNeural Network programming) -2.12 向量化的更多例子(More Examples of Vectorization) 第54页 page 54
我的看法:dz = a - y,而不是 dz = a(1-a) 此处我的理解是,应该时Loss函数对z求导,才可以梯度下降 但给的图是激活函数sigmoid对z求导的结果 a(1-a)
如图:
出处:第一门课 神经网络和深度学习(Neural Networks and Deep Learning) -第二周:神经网络的编程基础(Basics ofNeural Network programming) -2.12 向量化的更多例子(More Examples of Vectorization) 第54页 page 54
我的看法:dz = a - y,而不是 dz = a(1-a) 此处我的理解是,应该时Loss函数对z求导,才可以梯度下降 但给的图是激活函数sigmoid对z求导的结果 a(1-a)
如图: