Open CWF-999 opened 5 years ago
你训练几个epoch呢?
200个epoch,我的batch_size设置的32,5的话太不稳定了
------------------ 原始邮件 ------------------ 发件人: "XinWang-bip"<notifications@github.com>; 发送时间: 2019年11月6日(星期三) 下午3:43 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11)
你训练几个epoch呢?
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
我训练了120个epoch,batchsize设为64,loss到6.多就不降了。
王鑫 | |
---|---|
邮箱:17798568483@163.com |
签名由 网易邮箱大师 定制
在2019年11月06日 19:24,winfred 写道: 200个epoch,我的batch_size设置的32,5的话太不稳定了
------------------ 原始邮件 ------------------ 发件人: "XinWang-bip"<notifications@github.com>; 发送时间: 2019年11月6日(星期三) 下午3:43 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11)
你训练几个epoch呢?
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
— You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
我到3.62就开始跳动了,下不去了。给更小的学习率也没用
Loss3.62的效果怎样,我用loss6的模型测试了voc2007效果很差 | 王鑫 | |
---|---|---|
邮箱:17798568483@163.com |
签名由 网易邮箱大师 定制
在2019年11月06日 19:32,winfred 写道:
我到3.62就开始跳动了,下不去了。给更小的学习率也没用
— You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
也很差mAp0.52
------------------ 原始邮件 ------------------ 发件人: "XinWang-bip"<notifications@github.com>; 发送时间: 2019年11月6日(星期三) 晚上10:09 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>; "Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11)
Loss3.62的效果怎样,我用loss6的模型测试了voc2007效果很差 | 王鑫 | |
---|---|---|
邮箱:17798568483@163.com |
签名由 网易邮箱大师 定制
在2019年11月06日 19:32,winfred 写道:
我到3.62就开始跳动了,下不去了。给更小的学习率也没用
— You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe. — You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
请问您给的训练策略能把模型loss收敛到多小?我顶天了到3.7左右就再也降不下去了,不管是加epoch,调整学习率,还是调整batch_size都无法降低了?请问这是什么原因呢?
请问你训练的是哪个数据集?我训练的VOC数据集,在VOC2007_test上的Loss最低也就降到4.36。
VOC2007 和VOC2012一起训练
------------------ 原始邮件 ------------------ 发件人: "lsccccc"<notifications@github.com>; 发送时间: 2019年11月18日(星期一) 中午11:48 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11)
请问您给的训练策略能把模型loss收敛到多小?我顶天了到3.7左右就再也降不下去了,不管是加epoch,调整学习率,还是调整batch_size都无法降低了?请问这是什么原因呢?
请问你训练的是哪个数据集?我训练的VOC数据集,在VOC2007_test上的Loss最低也就降到4.36。
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
VOC2007 和VOC2012一起训练 … ------------------ 原始邮件 ------------------ 发件人: "lsccccc"<notifications@github.com>; 发送时间: 2019年11月18日(星期一) 中午11:48 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11) 请问您给的训练策略能把模型loss收敛到多小?我顶天了到3.7左右就再也降不下去了,不管是加epoch,调整学习率,还是调整batch_size都无法降低了?请问这是什么原因呢? 请问你训练的是哪个数据集?我训练的VOC数据集,在VOC2007_test上的Loss最低也就降到4.36。 — You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
还想请问一下您训练的学习率是多少,训练多少个epoch?不胜感激!
用的余弦退火学习率调整策略,300epoch,初始0.01
------------------ 原始邮件 ------------------ 发件人: "lsccccc"<notifications@github.com>; 发送时间: 2019年11月18日(星期一) 下午3:59 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11)
VOC2007 和VOC2012一起训练 … ------------------ 原始邮件 ------------------ 发件人: "lsccccc"<notifications@github.com>; 发送时间: 2019年11月18日(星期一) 中午11:48 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11) 请问您给的训练策略能把模型loss收敛到多小?我顶天了到3.7左右就再也降不下去了,不管是加epoch,调整学习率,还是调整batch_size都无法降低了?请问这是什么原因呢? 请问你训练的是哪个数据集?我训练的VOC数据集,在VOC2007_test上的Loss最低也就降到4.36。 — You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
还想请问一下您训练的学习率是多少,训练多少个epoch?不胜感激!
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
用的余弦退火学习率调整策略,300epoch,初始0.01 … ------------------ 原始邮件 ------------------ 发件人: "lsccccc"<notifications@github.com>; 发送时间: 2019年11月18日(星期一) 下午3:59 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11) VOC2007 和VOC2012一起训练 … ------------------ 原始邮件 ------------------ 发件人: "lsccccc"<notifications@github.com>; 发送时间: 2019年11月18日(星期一) 中午11:48 收件人: "shaoshengsong/MobileNetV3-SSD"<MobileNetV3-SSD@noreply.github.com>; 抄送: "陈文峰"<961403391@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [shaoshengsong/MobileNetV3-SSD] 请问您给的训练策略能把模型loss收敛到多小? (#11) 请问您给的训练策略能把模型loss收敛到多小?我顶天了到3.7左右就再也降不下去了,不管是加epoch,调整学习率,还是调整batch_size都无法降低了?请问这是什么原因呢? 请问你训练的是哪个数据集?我训练的VOC数据集,在VOC2007_test上的Loss最低也就降到4.36。 — You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe. 还想请问一下您训练的学习率是多少,训练多少个epoch?不胜感激! — You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
感谢,我再去试试。
It is recommended that git clone this version
https://github.com/shaoshengsong/MobileNetV3-SSD-Compact-Version
loss =1.8,1,9
请问您给的训练策略能把模型loss收敛到多小?我顶天了到3.7左右就再也降不下去了,不管是加epoch,调整学习率,还是调整batch_size都无法降低了?请问这是什么原因呢?