Open Xchhher opened 1 month ago
您好!我想请问一下,在您的论文中我看到选择的是SGD作为Optimizer,我在使用的时候尝试使用Adam和AdamW Optimizer,但是没训练几轮loss就变成了NAN,不知道您这边有没有遇到过类似的问题,还是说就只是使用了SGD呢?
我没试过其他优化器,我这边基本跟nnunet保持一致,如果出现nan的话 可以降低下学习率。
您好!我想请问一下,在您的论文中我看到选择的是SGD作为Optimizer,我在使用的时候尝试使用Adam和AdamW Optimizer,但是没训练几轮loss就变成了NAN,不知道您这边有没有遇到过类似的问题,还是说就只是使用了SGD呢?