Open Yagami360 opened 3 years ago
生成器のアーキテクチャ BigGAN の生成器のアーキテクチャをそのまま利用する。 ※ 論文では生成器として BigGAN の生成器のアーキテクチャを採用しているが、別の生成器(pix2pix-HD やUnet など)でも 本論文での Unet 識別器は有効であると思われる。 ※ BigGAN の生成器のアーキテクチャを採用しているので、本手法の GAN モデル(=Unet 識別器)は noize-to-image での GAN モデルになっているが、image-to-image での生成器(pix2pix-HD の生成器など)を採用すれば、本手法の GAN モデル(=Unet 識別器)は image-to-image でも使えそう
U-Net Based Discriminator のアーキテクチャ
CutMix を用いた consistency regularization loss
学習用データセット FFHQ, Celeb-A, COCO-Animals データセットそれぞれで評価
生成画像の品質スコアの定量比較検証
識別器の損失関数の定量比較検証
生成画像の定性検証
0. 論文情報・リンク
1. どんなもの?
2. 先行研究と比べてどこがすごいの?
3. 技術や手法の"キモ"はどこにある?
生成器のアーキテクチャ BigGAN の生成器のアーキテクチャをそのまま利用する。 ※ 論文では生成器として BigGAN の生成器のアーキテクチャを採用しているが、別の生成器(pix2pix-HD やUnet など)でも 本論文での Unet 識別器は有効であると思われる。 ※ BigGAN の生成器のアーキテクチャを採用しているので、本手法の GAN モデル(=Unet 識別器)は noize-to-image での GAN モデルになっているが、image-to-image での生成器(pix2pix-HD の生成器など)を採用すれば、本手法の GAN モデル(=Unet 識別器)は image-to-image でも使えそう
U-Net Based Discriminator のアーキテクチャ
CutMix を用いた consistency regularization loss
4. どうやって有効だと検証した?
学習用データセット FFHQ, Celeb-A, COCO-Animals データセットそれぞれで評価
生成画像の品質スコアの定量比較検証
識別器の損失関数の定量比較検証
生成画像の定性検証
5. 議論はあるか?
6. 次に読むべき論文はあるか?
7. 参考文献