huawei-noah / Efficient-AI-Backbones

Efficient AI Backbones including GhostNet, TNT and MLP, developed by Huawei Noah's Ark Lab.
4.07k stars 708 forks source link

请问一下,我利用vig训练mini-imagenet,acc总是100,请问一下这是什么原因 #189

Open 2450961986 opened 1 year ago

2450961986 commented 1 year ago

image

iamhankai commented 1 year ago

太强了,可以发nature了; 大佬带带我

2450961986 commented 1 year ago

抱歉,我确实不太懂,但感觉总是100,是不是我的操作哪有问题,无意冒犯,请教一下您

iamhankai commented 1 year ago

是不是你的数据就1类啊

goodmorningsi commented 1 year ago

请问前几天出的这个模型pvig_m_im21k_90e.pth,和之前的pvig_m.pth的模型有哪些改进呢

iamhankai commented 1 year ago

wow 你这都留意到了,这是我们在imagenet-21k预训练的模型

goodmorningsi commented 1 year ago

wow 你这都留意到了,这是我们在imagenet-21k预训练的模型 哈哈哈哈,好嘞,明白了,时刻关注着

goodmorningsi commented 1 year ago

wow 你这都留意到了,这是我们在imagenet-21k预训练的模型

那我也可以利用这个模型作为mask_rcnn的backbone进行训练吧

iamhankai commented 1 year ago

可以,精度应该会更高

goodmorningsi commented 1 year ago

可以,精度应该会更高

好嘞🆗

Konmua commented 1 year ago

你好,我用的Tiny Imagenet复现也遇到了同样的问题,想请问一下是什么原因呢,该怎样解决呢? image

lyzla commented 5 months ago

你好,请问你用的是单张卡来训练吗?lr是多少?batchsize是多少呀?我也在imagenet-mini上训练,设置的参数是这样的--lr 2e-4、-b 16,但是loss很大

1f797e558789677bdd6162a147181308
iamhankai commented 5 months ago

你好,请问你用的是单张卡来训练吗?lr是多少?batchsize是多少呀?我也在imagenet-mini上训练,设置的参数是这样的--lr 2e-4、-b 16,但是loss很大 1f797e558789677bdd6162a147181308

学习率太大了,调小点

lyzla commented 5 months ago

感谢您的回复,我使用的imagenet-mini数据集(https://www.kaggle.com/datasets/ifigotin/imagenetmini-1000)每个类别的样本数太少了,发现是数据集的问题,换了一个数据集发现问题解决了,但是也会出现loss比较大的情况,不过epoch迭代到后面Loss就降下来了。我的设置是--nproc_per_node=2、--lr 5e-4、-b 32

再次感谢您的回复! 

李雨臻 @.***

 

------------------ 原始邮件 ------------------ 发件人: "Kai @.>; 发送时间: 2024年6月3日(星期一) 晚上7:33 收件人: @.>; 抄送: @.>; @.>; 主题: Re: [huawei-noah/Efficient-AI-Backbones] 请问一下,我利用vig训练mini-imagenet,acc总是100,请问一下这是什么原因 (Issue #189)

你好,请问你用的是单张卡来训练吗?lr是多少?batchsize是多少呀?我也在imagenet-mini上训练,设置的参数是这样的--lr 2e-4、-b 16,但是loss很大

学习率太大了,调小点

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>