Closed TamuraMasayuki closed 1 year ago
Batch sizeが小さいときは最初から小さいので気づきにくいが、値が大きいまま0に近づかない
latent loss(KLダイバージェンス)が大きい。つまり平均と分散が0、1に収束していっていない。
なぜ?
[x] ともりさんのデータでlossが下がるか確認する
[x] データ1つで学習
Encoder Lossが高止まりしてしまう
Batch sizeが小さいときは最初から小さいので気づきにくいが、値が大きいまま0に近づかない
latent loss(KLダイバージェンス)が大きい。つまり平均と分散が0、1に収束していっていない。
なぜ?
[x] ともりさんのデータでlossが下がるか確認する
[x] データ1つで学習