Dichao-Liu / CMAL

44 stars 11 forks source link

关于模型大小 #8

Open tongchangD opened 9 months ago

tongchangD commented 9 months ago

今早查询有关细粒度分类相关的论文代码,发现该论文与项目, 由于我是对检测框之后的切割图像来做判断,我直接保存TResnetL_V2模型,发现该模型占比较大,之前使用的resnet模型比较小, 请问有没有较小的模型,就train_FGVC_Aircraft_ResNet50.py 来讲,我们使用的是TResnetL_V2 模型还是下方的Network_Wrapper模型。 是否需要通读一下论文在做计较。

tongchangD commented 9 months ago

请问在真正推理时是否只需要保留真正模型的参数即可,不需加入注意力相关的模型参数。

Dichao-Liu commented 9 months ago

你好。

1.我在实验中用了两种backbone,一是ResNet50,二是TResnetL_V2。你说的train_FGVC_Aircraft_ResNet50.py中给出的是用ResNet50在FGVC_Aircraft数据集上做实验的代码。train_Stanford_Cars_TResNet_L.py中给出的是用TResnetL_V2在Stanford_Cars数据集上做实验的代码。在FGVC_Aircraft上,使用ResNet50作为backbone的效果更好,而在Stanford_Cars上TResNet_L的表现更好。我没有试过其他的backbone网络,不过按理说,类似ResNet50的网络结构都可以很简单地与train_FGVC_Aircraft_ResNet50.py训练代码相结合,比如要用resnet18代替resnet50,只需要在该文件的145行改用resnet18即可。

2.使用的是Network_Wrapper。在推理的时候,要是需要得到最好的结果,注意力相关参数还是需要的。但是也可以不使用,我记得好像会略低一点,百分之零点几 (可参照utils.py中的test或者test_tresnetl函数)。

tongchangD commented 9 months ago

@Dichao-Liu 谢谢您的回复,刚刚大致读了您的代码,已大概明了

我直接保存模型发现模型占比较大,预估不太适用于我的场景,我现在是在小图上做分类,模型还是用的densent,现在数据区分点较细,故来找有关细粒度分类的模型。

您论文的思路非常棒,请问您在做这块细粒度图像分类的时候有遇到其他较小推理快的模型吗