Open yhl1010 opened 4 years ago
您好,请问一下,您这个BN融合的代码是在哪里找的呢?
您好,请问一下,您这个BN融合的代码是在哪里找的呢?
就是在IAO/models/util_wqaq里的BNFold_Conv2d_Q函数,就训练过程中总是会出现loss=nan,不知道为什么
建议换一个模型,我是用自己的模型进行训练,没有出现梯度消失的情况
王良 | |
---|---|
邮箱:18729264891@163.com |
签名由 网易邮箱大师 定制
在2020年10月15日 14:26,yhl1010 写道:
您好,请问一下,您这个BN融合的代码是在哪里找的呢?
就是在IAO/models/util_wqaq里的BNFold_Conv2d_Q函数,就训练过程中总是会出现loss=nan,不知道为什么
— You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
建议换一个模型,我是用自己的模型进行训练,没有出现梯度消失的情况 | | 王良 | | 邮箱:18729264891@163.com | 签名由 网易邮箱大师 定制 在2020年10月15日 14:26,yhl1010 写道: 您好,请问一下,您这个BN融合的代码是在哪里找的呢? 就是在IAO/models/util_wqaq里的BNFold_Conv2d_Q函数,就训练过程中总是会出现loss=nan,不知道为什么 — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
您也是把BNFold_Conv2d_Q这个函数去替换原模型中的conv+bn吗?您的模型大吗?是用在哪个领域呢,分类,检测还是分割?谢谢
对,我用的是vgg16,检测方面
王良 | |
---|---|
邮箱:18729264891@163.com |
签名由 网易邮箱大师 定制
在2020年10月15日 16:13,yhl1010 写道:
建议换一个模型,我是用自己的模型进行训练,没有出现梯度消失的情况 | | 王良 | | 邮箱:18729264891@163.com | 签名由 网易邮箱大师 定制 在2020年10月15日 14:26,yhl1010 写道: 您好,请问一下,您这个BN融合的代码是在哪里找的呢? 就是在IAO/models/util_wqaq里的BNFold_Conv2d_Q函数,就训练过程中总是会出现loss=nan,不知道为什么 — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
您也是把BNFold_Conv2d_Q这个函数去替换原模型中的conv+bn吗?您的模型大吗?是用在哪个领域呢,分类,检测还是分割?谢谢
— You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
对,我用的是vgg16,检测方面 | | 王良 | | 邮箱:18729264891@163.com | 签名由 网易邮箱大师 定制 在2020年10月15日 16:13,yhl1010 写道: 建议换一个模型,我是用自己的模型进行训练,没有出现梯度消失的情况 | | 王良 | | 邮箱:18729264891@163.com | 签名由 网易邮箱大师 定制 在2020年10月15日 14:26,yhl1010 写道: 您好,请问一下,您这个BN融合的代码是在哪里找的呢? 就是在IAO/models/util_wqaq里的BNFold_Conv2d_Q函数,就训练过程中总是会出现loss=nan,不知道为什么 — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe. 您也是把BNFold_Conv2d_Q这个函数去替换原模型中的conv+bn吗?您的模型大吗?是用在哪个领域呢,分类,检测还是分割?谢谢 — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
感谢,我去试一下用在分割任务中!
您好,请问做过关于将最后训练完成的模型拿出来用bn_folding.py和bn_floding_test.py这两个程序进行压缩量化?
您好,请问做过关于将最后训练完成的模型拿出来用bn_folding.py和bn_floding_test.py这两个程序进行压缩量化?
还没有额,我才刚开始研究这个工程,不好意思!
如果你后面做过且有效果的请告知我一下,谢谢
你好,我也是把bn_fold设为1时训练几个epoch就会出现loss=nan,如果是在训练好的模型上继续做量化训练,第一个batch的backward就会使部分参数的梯度为nan,没法继续训练,问下大佬这个问题解决了吗,谢谢。
已修复。
您好我在训mobilenet的检测模型时也遇到了某些epoch之后就梯度nan的问题,请问您是怎么修复的呢?
已修复。
代码没有做任何改动,将bn_fold设为1训练会出现loss=nan的情况。修改了batch size 和学习率都一样,请问怎么解决呢?