lukasruff / Deep-SVDD-PyTorch

A PyTorch implementation of the Deep SVDD anomaly detection method
MIT License
698 stars 197 forks source link

训练自己数据集时,训练自编码器时的loss特别大,但是在下降,请问可能是什么原因 #18

Open yokings opened 4 years ago

dbbbbm commented 3 years ago

我一开始也遇到类似问题。第一个原因可能是作者的自编码器输出有sigmoid函数,所以你的输入图像像素值必须在[0,1]之间;第二可能是作者计算loss是求和不是平均,所以看起来大也正常。

qqqhhh-any commented 3 years ago

作者自定义的loss不是逐像素的均方误差,是求和的

xinjiang0526 commented 2 years ago

所以这loss高的话,需要管他吗,兄弟们

bethansy commented 1 year ago

所以这loss高的话,需要管他吗,兄弟们

请问怎么训练自己的数据哇,我看代码里就限定了'mnist' 和 'cifar10'。我也想换成自己的数据训练后用来预测

bethansy commented 1 year ago

我一开始也遇到类似问题。第一个原因可能是作者的自编码器输出有sigmoid函数,所以你的输入图像像素值必须在[0,1]之间;第二可能是作者计算loss是求和不是平均,所以看起来大也正常。

怎么训练自己的数据呢