Open hursuk1 opened 2 years ago
multi scale을 통한 학습 성능 향상 기대
이전 실험(mAP : 0.53) 값보다 더 좋은 성능
ms 적용해도 오히려 성능이 떨어지는 현상 발생 그 이유를 보았을 때 하이퍼파라미터를 잘못 튜닝한 것으로 보임
yolo hyp 최적화함수를 adam으로 사용했을 때 학습률에 따라 학습 진행속도가 매우 다름 SGD의 경우 0.01일 때 최적으로 값을 찾아나가고 Adam의 경우 0.001일 때 최적으로 값을 찾아나가는 것을 확인함
세부 설명
multi scale을 통한 학습 성능 향상 기대
목표
이전 실험(mAP : 0.53) 값보다 더 좋은 성능