Closed sisyphusking closed 6 years ago
def backward(self, delta_array): ''' 反向计算W和b的梯度 delta_array: 从上一层传递过来的误差项 ''' # 式8 self.delta = self.activator.backward(self.input) * np.dot( # 为什么这里是input 而不是output呢? self.W.T, delta_array) self.W_grad = np.dot(delta_array, self.input.T) self.b_grad = delta_array
应该是笔误了,应该是self.delta = self.activator.backward(self.activator.forward(input)) * np.dot( self.W.T, delta_array)才对。