Closed changwoomon closed 3 years ago
@Heeseok-Jeong 슬랙에 KL과 CE 차이에 대한 답변이 있었네요! 관련 링크 남깁니다. 잘 설명해 놓은 자료를 발견해 이어서 추가로 링크 달아놓겠습니다!
참고로 CE와 KL은 다음과 같은 관계를 같는다고 합니다.
@bsm8734 8-4번 질문에서 제가 양자화를 하면 범위가 더 커진다고 말씀드렸는데 다시 보니 아니네요. 죄송합니다ㅠㅠ
양자화를 한다는 것이 어찌보면 trucated하는 것과 비슷하기 때문에 범위가 위와 같이 엄청 넓어지기는 힘듭니다. 코드를 보니 양자화 때문이라기 보다는 dequantize로 인해서 그렇게 된 것 같은데 자세한 이유는 잘 모르겠네요.
@CoodingPenguin 완전 이해됐습니다! p 분포가 고정일 때는 CE 나 KL 이나 둘 다 loss 로 잡아도 다를게 없는데 distillation loss 의 경우 p 분포가 바뀌기 때문에 KL 을 쓰는군요! 감사합니다 ㅎㅎ
마스터클래스 질문
🤷♀️Further Question🤷♀️
(8강) 양자화
2) 이 에러를 보정하려면 어떻게 하면 좋을까?
3) Dynamic quantization을 하는 이유는 무엇일까?
https://leimao.github.io/article/Neural-Networks-Quantization/
https://pytorch.org/docs/stable/quantization.html
https://research.fb.com/wp-content/uploads/2019/12/2.-Quantization.pptx
4) 이 히스토그램은 어떤 의미가 있을지 적어보자
(9강) 지식 증류
2) Asterisk(*)의 용도는?
3) zero-mean assumption이 참이 아닐 때 Knowledge distillation은 어떤 쓸모가 있을까?
zero-mean assumption 의미
4) 하나의 Loss에서 KL과 CE를 섞어쓴 이유는?
KL과 CE의 차이와 사용하는 이유