doublejy715 / Paper_review

Paper_review
1 stars 0 forks source link

Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs #19

Open doublejy715 opened 2 years ago

doublejy715 commented 2 years ago

Abstract

1. Introduction

paragraph 1

GANs 소개, GANs의 한계점과 이를 해결하기 위한 다양한 방법 소개

paragraph 2

transfer learning을 많이 이용하지만, 여전히 제한된 학습 데이터 셋에서는 한계점이 보인다.

paragraph 3

freezeD는

paragraph 4

freezeD의 idea

paragraph 5

2. Method

  1. Fine-tuning transfer knowledge에서 fine-tuning은 가장 직관적이고 효과적인 방법이다. target model의 처음 시작하는 parameter을 source model의 pre-trained weight로 지정하는 방법이다. 해당 저자는 generator와 discriminator 둘다 fine-tuning을 하면 가장 좋은 결과를 가져온다고 발표하였다. 그러나 fine-tuning은 overfitting이 될 위험이 있다.

  2. Scale/shift 단순한 fine-tuning은 overfiitng이 될 수 있기 때문에, normalization layer(batch normalization, BN)에 scale/shift을 적용하는 것이 제시된다. 그러나 normalization layer를 수정하는 것 만으로는 제한적이어서, source와 target distribution 간에 많은 이동이 있는 경우 효과를 보기 어렵다.

  3. Generative latent optimization(GLO) GAN loss는 discriminator에 의해 계산되기 때문에 제한된 데이터의 unreliable한 경우 GLO가 fine-tuning 방법으로 제시된다. GLO는 ovrfitting을 피하기 위해서 generator와 latent code를 최적화한다. 하나의 latent code를 하나의 real sample에 매칭시키는 방법이다. GLO가 안정적으로 모델을 개선하는 동안, 부족한 adversarial loss 때문에 blurry한 이미지를 제공한다는 단점이 있다.

3. Experiments

3.1. Unconditional GAN

3.2. Conditional GAN

4. Conclusion