e4exp / paper_manager_abstract

0 stars 0 forks source link

Regularizing Generative Adversarial Networks under Limited Data #344

Open e4exp opened 3 years ago

e4exp commented 3 years ago

近年、生成的敵対的ネットワーク(Generative Adversarial Network: GAN)が急速に進歩していると言われています。 しかし、GANモデルの成功には、大量の学習データが必要である。 本研究では、限られたデータでロバストなGANモデルを学習するための正則化アプローチを提案する。 正則化された損失とLeCam-divergenceと呼ばれるf-divergenceとの関係を理論的に示し、限られたトレーニングデータの下でよりロバストであることを発見した。 いくつかのベンチマークデータセットを用いた大規模な実験により、提案された正則化スキームが、 1)限られた学習データの下でGANモデルの汎化性能を向上させ、学習ダイナミクスを安定化させること、 2)最近のデータ増強法を補完すること、 が実証された。 これらの特性により、ImageNetベンチマークの限られたトレーニングデータしか利用できない場合でも、GANモデルをトレーニングして最先端の性能を達成することができる。

e4exp commented 3 years ago

image image image image image image image image image image image image image

e4exp commented 3 years ago
  1. 結論と今後の課題

本研究では、限られたデータの下でGANモデルを訓練するための正則化手法を提示する。 提案手法は、学習段階で識別器に正則化損失を課すことで、GANモデルのよりロバストな学習目的を達成する。 実験では、異なるGANバックボーンを持つ様々な画像生成データセットで実験を行い、 1)特に限られたデータ設定の下でGANモデルの性能を向上させ、 2)性能をさらに向上させるためにデータ補強法とともに適用できる提案方式の有効性を実証する。 今後は、 1)画像外挿や画像間変換などの条件付きGANタスク、 2)大規模なノイズを含む学習データ上でのロバストなGAN学習について、学習データ不足の問題を解決していく予定である。