JXingZhao / EGNet

EGNet:Edge Guidance Network for Salient Object Detection (ICCV 2019)
312 stars 63 forks source link

多个loss的优化问题 #9

Open Belye opened 5 years ago

Belye commented 5 years ago

您好! 深度学习初学者 请问下您在训练的时候是不是说固定了预训练模型的参数,然后对其他层进行优化,就是这句Adam(filter(lambda p: p.requires_grad, self.net_bone.parameters()), lr=self.lr_bone, weight_decay=p['wd'])代码,还有网络中存在多个loss进行优化的时候,是不是将所有loss加起来再反向传播?

JXingZhao commented 5 years ago

不是的,我们并没有固定预训练模型的参数。是所有的参数一起优化。 多任务的话,就是loss加起来,一起反向传播就可以了。

发件人:Belye notifications@github.com 发送日期:2019-09-19 14:07:13 收件人:JXingZhao/EGNet EGNet@noreply.github.com 抄送人:Subscribed subscribed@noreply.github.com 主题:[JXingZhao/EGNet] 多个loss的优化问题 (#9) 您好! 深度学习初学者 请问下您在训练的时候是不是说固定了预训练模型的参数,然后对其他层进行优化,就是这句Adam(filter(lambda p: p.requires_grad, self.net_bone.parameters()), lr=self.lr_bone, weight_decay=p['wd'])代码,还有网络中存在多个loss进行优化的时候,是不是将所有loss加起来再反向传播? — You are receiving this because you are subscribed to this thread. Reply to this email directly, view it on GitHub, or mute the thread.