Open Sp2-Hybrid opened 3 years ago
为什么调整batch_size后mAP可以得到如此大的提升?
我觉得可能是因为batch size变大之后,数据的variance更贴近真实的分布,gradient descent的时候比较容易跳出local minimum。或者batch size变大之后得到的t, l, b, r category data更全面, back propagation的时候更稳定。不过也是个人猜测,欢迎指正。目前看来batch size变小会有nan的训练错误,数据imbalance影响很大
为什么调整batch_size后mAP可以得到如此大的提升?