kaiwang960112 / Self-Cure-Network

This is a novel and easy method for annotation uncertainties.
409 stars 96 forks source link

有关loss函数以及预训练模型的问题 #54

Closed yangqian-qian closed 9 months ago

yangqian-qian commented 3 years ago

作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。

kaiwang960112 commented 3 years ago

可以直接torch load加载,具体可以看region attention network那个repo。两个loss是一样重要性的

yangqian-qian @.***> 於 2021年6月29日週二 下午10:50寫道:

作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。

— You are receiving this because you are subscribed to this thread. Reply to this email directly, view it on GitHub https://github.com/kaiwang960112/Self-Cure-Network/issues/54, or unsubscribe https://github.com/notifications/unsubscribe-auth/AI6LK4CJLZDJVSJR236QPC3TVHMSHANCNFSM47QJ5WLQ .

yangqian-qian commented 3 years ago

嗯嗯,我明白了,非常感谢您的及时回复,祝您生活愉快!

------------------ 原始邮件 ------------------ 发件人: "kaiwang960112/Self-Cure-Network" @.>; 发送时间: 2021年7月2日(星期五) 晚上9:21 @.>; @.**@.>; 主题: Re: [kaiwang960112/Self-Cure-Network] 有关loss函数以及预训练模型的问题 (#54)

可以直接torch load加载,具体可以看region attention network那个repo。两个loss是一样重要性的

yangqian-qian @.***> 於 2021年6月29日週二 下午10:50寫道:

> > 作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。 > > — > You are receiving this because you are subscribed to this thread. > Reply to this email directly, view it on GitHub > <https://github.com/kaiwang960112/Self-Cure-Network/issues/54&gt;, or > unsubscribe > <https://github.com/notifications/unsubscribe-auth/AI6LK4CJLZDJVSJR236QPC3TVHMSHANCNFSM47QJ5WLQ&gt; > . >

— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.