Open icoxfog417 opened 6 years ago
GANの学習は、GとDの間にナッシュ均衡を見つける問題と見立てられる。これを見つけるにはsimultaneousなGDが用いられるが、両者の勾配ベクトルが特定の固有値を持つ場合収束しない。そこで正則化項を導入しこれを防いでいる。
https://arxiv.org/abs/1705.10461
Lars Mescheder, Sebastian Nowozin, Andreas Geiger
2017/5/30
Stochasticに、mini-batchで行う場合についての検証がまだされてないという指摘あり。
GANs are Broken in More than One Way: The Numerics of GANs
著者とコンタクトを取っているようで、著者らはこの点についての検証を進めているとのこと。
一言でいうと
GANの学習は、GとDの間にナッシュ均衡を見つける問題と見立てられる。これを見つけるにはsimultaneousなGDが用いられるが、両者の勾配ベクトルが特定の固有値を持つ場合収束しない。そこで正則化項を導入しこれを防いでいる。
論文リンク
https://arxiv.org/abs/1705.10461
著者/所属機関
Lars Mescheder, Sebastian Nowozin, Andreas Geiger
投稿日付(yyyy/MM/dd)
2017/5/30
概要
新規性・差分
手法
結果
コメント