Open t-zhan opened 2 months ago
不是500,是80000 steps,在实验部分的 3) Implementation Details部分有写到。这个训练不太稳定,实际上一般不需要这么多
不是500,是80000 steps,在实验部分的 3) Implementation Details部分有写到。这个训练不太稳定,实际上一般不需要这么多
好的好的,感谢
按照这个setting,结果看起来不太正常诶
那不应该啊,Sample看起来正常吗?是不是训太多了
我没训这么久过,一般50000~80000就看起来不错了
我没训这么久过,一般50000~80000就看起来不错了
看起来也不是很正常?顺便附上训练log log.txt progress.csv
log.txt progress.csv 这是我随便找的一次实验的数据 你的Loss有点太低了,比我的低了一个数量级。我不好说是哪里的原因。。。发现新问题了hhhhh 你可以采样loss在0.0001~8e-05左右的结果试一下
log.txt progress.csv 这是我随便找的一次实验的数据 你的Loss有点太低了,比我的低了一个数量级。我不好说是哪里的原因。。。发现新问题了hhhhh 你可以采样loss在0.0001~8e-05左右的结果试一下
请问可以发一下这个训练的pt文件吗?
------------------ 原始邮件 ------------------ 发件人: "Li-Haoqing/IRSTD-Diff" @.>; 发送时间: 2024年9月8日(星期天) 晚上8:57 @.>; @.**@.>; 主题: Re: [Li-Haoqing/IRSTD-Diff] 训练轮数 (Issue #2)
log.txt progress.csv 这是我随便找的一次实验的数据 你的Loss有点太低了,比我的低了一个数量级。我不好说是哪里的原因。。。发现新问题了hhhhh 你可以采样loss在0.0001~8e-05左右的结果试一下
请问可以发一下这个训练的pt文件吗?
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>
从QQ邮箱发来的超大附件
results_SIRST.zip (699.45M, 2024年10月09日 12:40 到期)进入下载页面:https://mail.qq.com/cgi-bin/ftnExs_download?k=7334646620f72eb07c3a912c1132544b4d40515303540756185506510e1f035d0203495100565449040550030706035450045250372366165047110a434139377c66373219480f143509&t=exs_ftn_download&code=54df72fd
太大了,直接发你邮箱了
模型结构和代码里的不完全一致诶,这个ilnet是什么呀
我是把这个模型用作Conditional Encoder,但是后面又有改动,这个文中有提到。我也不记得这是哪个实验版本,什么结构了。。不好意思。。。 以开源的版本为准吧,和论文中的结构是一致的。不过我这里只有很少的实验早期的数据,大部分数据在之前学校的服务器上
ilnet是我另一个repo,那个用起来比较简单
不知道您那边是否有条件pull下来这个开源版本训练一下hhh
这个可能是不行的 抱歉啊。。
您好,我看您文章中写到iteration T = 500,请问是训练到model000000.pt后面的数字到model000500.pt吗?但是500似乎无法得到文中结果?对于NUAA-SIRST,这一后缀要训练到多少呀?