Open shimopino opened 3 years ago
[arXiv:2011.13074] Omni-GAN: On the Secrets of cGANs and Beyond
Peng Zhou, Lingxi Xie, Bingbing Ni, Qi Tian
2020-11-26
GANでの画像生成において、より高品質な画像を生成するためにクラスラベルなどを使用した、BigGANやMulti-hinge GANなどの条件付き画像生成モデルが提案されている。
しかし、条件付き画像生成は、以下のように学習途中でモード崩壊が発生することがよくあり、十分な性能を発揮させるためにはEarly Stoppingが必要である。
ADAの論文で示されたのは、学習の不安定性はDiscriminatorに起因するというものである。本研究ではこのDiscriminatorを、クラスラベルに属する確率を出力するかどうかという分類を行い、projection-basedなモデルとclassification-basedなモデルに分けている。
この2つのモデルに対して、上記の図からわかるようにclassification-basedなモデルはより高いInception Scoreを達成しているが、学習の早い段階でモード崩壊を起こしてしまっている。
本研究では多クラス分類の損失関数を使用することで、上記2つのモデルを統合させる手法を提案している。これで両者のモデルの良い部分と悪い部分を制御することを目指している。
実際に実験結果から、強力なDiscriminatorを学習できるclassification-basedなモデルに対して、学習の初期段階でデータセットを単に記憶しないような正則化項を導入することが、最適な選択肢であると判明した。
正則化項も複雑なものではなく、weight decayとして導入するものであり、数行のコードで実装可能である。
https://github.com/PeterouZh/Omni-GAN-PyTorch
論文へのリンク
[arXiv:2011.13074] Omni-GAN: On the Secrets of cGANs and Beyond
著者・所属機関
Peng Zhou, Lingxi Xie, Bingbing Ni, Qi Tian
投稿日時(YYYY-MM-DD)
2020-11-26
1. どんなもの?
2. 先行研究と比べてどこがすごいの?
GANでの画像生成において、より高品質な画像を生成するためにクラスラベルなどを使用した、BigGANやMulti-hinge GANなどの条件付き画像生成モデルが提案されている。
しかし、条件付き画像生成は、以下のように学習途中でモード崩壊が発生することがよくあり、十分な性能を発揮させるためにはEarly Stoppingが必要である。
ADAの論文で示されたのは、学習の不安定性はDiscriminatorに起因するというものである。本研究ではこのDiscriminatorを、クラスラベルに属する確率を出力するかどうかという分類を行い、projection-basedなモデルとclassification-basedなモデルに分けている。
この2つのモデルに対して、上記の図からわかるようにclassification-basedなモデルはより高いInception Scoreを達成しているが、学習の早い段階でモード崩壊を起こしてしまっている。
本研究では多クラス分類の損失関数を使用することで、上記2つのモデルを統合させる手法を提案している。これで両者のモデルの良い部分と悪い部分を制御することを目指している。
実際に実験結果から、強力なDiscriminatorを学習できるclassification-basedなモデルに対して、学習の初期段階でデータセットを単に記憶しないような正則化項を導入することが、最適な選択肢であると判明した。
正則化項も複雑なものではなく、weight decayとして導入するものであり、数行のコードで実装可能である。
3. 技術や手法の"キモ"はどこにある?
4. どうやって有効だと検証した?
5. 議論はあるか?