Open shimopino opened 4 years ago
[arXiv:2004.05472] Autoencoding Generative Adversarial Networks
Conor Lazarou
2020-04-11
GANにAEを導入したAEGANを提案した。同じGeneratorの構造を使用して実験すると、モード崩壊を防ぐことができていることがわかる。
ただし本当に効果があるのかは不明。量的な比較を望む
2つのGANと2つのAEを組み合わせてサンプル空間と潜在空間のマッピングを行うネットワークを提案した。GANよりも学習が安定しモード崩壊を防ぐことが可能。またサンプル間の補間も可能である。
AEGANは画像を識別するネットワークと、潜在ベクトルを識別するネットワークに大別することができる。計算の流れを以下に示す。
あとは復元された画像と潜在ベクトルを使用して、再構成損失関数を適用する。
敵対的損失関数としては画像と潜在ベクトルに対して適用するためイカで表現できる。
また再構成損失関数にも同様に画像と潜在ベクトルを使用する。
ランダムに抽出したベクトルを100個用いて画像を生成した際の結果を載せる。同じ構造を採用しているGeneratorにもかかわらず、AEGANではモード崩壊が発生していないことがわかる。
次にネットワークに入力した画像と、それに対応する再構成された画像とを比較する。純粋なAEでは再構成した画像がぼやけているが、AEGANではよりシャープな画像が生成できていることがわかる。
単純にネットワークのサイズが倍になってしまうのはどうなのか?
https://github.com/ConorLazarou/AEGAN-keras
論文へのリンク
[arXiv:2004.05472] Autoencoding Generative Adversarial Networks
著者・所属機関
Conor Lazarou
投稿日時(YYYY-MM-DD)
2020-04-11
1. どんなもの?
GANにAEを導入したAEGANを提案した。同じGeneratorの構造を使用して実験すると、モード崩壊を防ぐことができていることがわかる。
ただし本当に効果があるのかは不明。量的な比較を望む
2. 先行研究と比べてどこがすごいの?
2つのGANと2つのAEを組み合わせてサンプル空間と潜在空間のマッピングを行うネットワークを提案した。GANよりも学習が安定しモード崩壊を防ぐことが可能。またサンプル間の補間も可能である。
3. 技術や手法の"キモ"はどこにある?
AEGANは画像を識別するネットワークと、潜在ベクトルを識別するネットワークに大別することができる。計算の流れを以下に示す。
あとは復元された画像と潜在ベクトルを使用して、再構成損失関数を適用する。
敵対的損失関数としては画像と潜在ベクトルに対して適用するためイカで表現できる。
また再構成損失関数にも同様に画像と潜在ベクトルを使用する。
4. どうやって有効だと検証した?
ランダムに抽出したベクトルを100個用いて画像を生成した際の結果を載せる。同じ構造を採用しているGeneratorにもかかわらず、AEGANではモード崩壊が発生していないことがわかる。
次にネットワークに入力した画像と、それに対応する再構成された画像とを比較する。純粋なAEでは再構成した画像がぼやけているが、AEGANではよりシャープな画像が生成できていることがわかる。
5. 議論はあるか?
単純にネットワークのサイズが倍になってしまうのはどうなのか?
6. 次に読むべき論文はあるか?
論文情報・リンク