Open jsh0551 opened 2 years ago
에폭 20이 넘어가면서 NaN이 발생했습니다. optimizer_config의 타입으로 Fp16OptimizerHook설정을 했는데 float16 type으로 계산하기 때문에 속도는 빨라지는 대신 소실되는 값으로 인한 grad나 loss에서 NaN이 발생하는 경우가 많아지는 것 같습니다.
이를 방지하기 위한 장치로 loss_scale을 조절하여 방지할 수 있다고 했는데, 여러 값으로 실험했지만 계속 NaN이 떴습니다. 그래서 오래걸리지만 Fp16OptimizerHook을 쓰지 않고 학습 진행중입니다.
mosaic으로 offline augmentation한 데이터로 knet+upernet 학습시킬 때 loss가 NaN으로 나오면서 학습이 터지는 현상이 있었습니다. 찾아보니 CNN+activation을 거치면 gradient가 급변하게 되는데 이때 loss 값이 크게 튀어서 나오는 현상이라고 합니다.
해결법은 모든 activation function 뒤에 batch normalization을 해주면 gradient 값이 안정화된다고 하네요. knet+upernet 같은 경우에는 decoder 학습 과정에서 이 현상이 발생했고, kernel_update_head 부분을 수정해서 해결했습니다.