hgpvision / darknet

darknet深度学习框架源码分析:详细中文注释,涵盖框架原理与实现语法分析
MIT License
1.6k stars 488 forks source link

我来回答下:始终不明白softmax_layer层反向传播函数backward_softmax_layer()中为什么不用对softmax函数求导? #32

Open rockyzhengwu opened 4 years ago

rockyzhengwu commented 4 years ago

我感觉作者的意图是,softmax_layer 通常都是最后一层的激活函数, 作者把 softmax 的求导和 loss 放到一起了,你去看loss 的求导就发现 softmax 其实已经算过了,所以 softmax_layer就不处理,所以 softmax 后一定是接上某个loss 的