Open muyiyiyi opened 3 years ago
0.2*grad weight的梯度是传回去更新backbone的参数的,0.2是我们人为设定的,目的是平衡L1损失和L2损失对backbone更新的权重,confidence map的学习应该以L2的监督为主。L1损失在分割结果上计算,起到增加难分割区域权重的作用。如果L1损失占比太大,有的时候会让网络的梯度波动较大,毕竟binary map 与confidence map 相比是不连续的。所以我们在它经过BF传回去的时候降低了它的权重。
0.2*grad weight的梯度是传回去更新backbone的参数的,0.2是我们人为设定的,目的是平衡L1损失和L2损失对backbone更新的权重,confidence map的学习应该以L2的监督为主。L1损失在分割结果上计算,起到增加难分割区域权重的作用。如果L1损失占比太大,有的时候会让网络的梯度波动较大,毕竟binary map 与confidence map 相比是不连续的。所以我们在它经过BF传回去的时候降低了它的权重。
明白了,谢谢作者的解答!
作者您好,这篇论文效果很棒,感谢你们的工作。 但是对于源码里,BF这个部分。为什么
grad_input= 0.2*grad_output
。这个0.2是人为设定的吗,还是从哪里推导出来的呢。 在论文中,我也没有看的很明白。感谢您的解答。