NJU-LHRS / official-CMID

The official implementation of paper "Unified Self-Supervised Learning Framework for Remote Sensing Images".
80 stars 5 forks source link

目标检测下游任务应用的疑问 #23

Open HappyGoLucky6666 opened 3 months ago

HappyGoLucky6666 commented 3 months ago

作者你好,非常感谢你们团队的贡献。 这次我主要是想请你对该自监督模型应用在定向目标检测领域的一些疑问进行解答。在论文中,我知道你们在该任务上使用的是DOTA v1.0数据集,我在自己电脑上运行的时候相关设置与你提到的均保持一致(这里我使用的是resnet50骨干网络),且模型文件也是由你Readme文件下载而来,我使用了mmrotation项目中的ORCN框架进行训练和验证。总之,我的训练尽量满足你们所提到的配置,但是在我训练得到的结果来看,没有达到你们论文中所描写的精度。对此,我非常疑惑。 对于该参数文件的应用,我也有疑问。我们知道自监督学习被提出来的目的,主要是为了减少标签数据的需要。我们在自监督预训练上使用的是大规模的无标签数据,得到了一个特征提取的参数文件,我的操作就是把他应用到下游任务中去。那么我就需要在下游任务中使用少量的带标签的数据来进行模型的微调,这里是否应该使用全部的DOTA v1.0训练数据?在我认为不应该如此做,因为这毕竟是为了测试自监督学习的学习能力,因此我分别使用了10%、20%、30%的数据来微调目标检测框架,但是他们的精度普遍很低,我测试得到的结果是52.81%、61.50%、65.52%。 对于你们团队得出来的检测精度76.73%,我不知道你们更细节的处理是怎么样的,希望你能够给我提供你们的具体的设置和处理细节,并给我解答我所提出来的这些疑问,非常感谢!!!

pUmpKin-Co commented 3 months ago

您好. 我们使用的是所有的训练数据。预训练模型确实能在一定程度上减少对标注数据的依赖,但数标注据越多越好也是肯定的. 因为我们的对比方法一般都是用所有的标注数据,所以我们也是按照这个setting进行对比,您也可以在相同的少样本标注下对比不同预训练模型,

HappyGoLucky6666 commented 3 months ago

感谢您的回复,但我还是很疑惑,使用所有的训练数据训练模型那不是和监督学习没有区别了吗?甚至说它照理论来说的确应该有更强大的性能,毕竟它是额外经过了一次大规模数据的预训练。我们都知道监督学习就是使用大量的带标签数据训练模型,使其具备良好的特征提取能力。自监督与监督这两者最大的区别就是是否使用带标签的数据啊,这是我很迷惑,单独使用自监督学习的精度能不能与监督学习相抗衡。 另外,您所说的您们团队对比的方法一般都是用所有的标注数据。我也已经读了很多自监督学习方面的文章,是不是文章里面的实验结果数据也和您们一样使用的全部的标记数据呢?这些细节的地方也为我之后的研究提供了帮助。抱歉,作为一个自监督学习的初学者确实很多细节都不太明白,我是按照自己的理解给您提的这些问题。 使用所有标签数据的训练我也实验过了,我得到的结果是69.38%,您们团队的结果是76.63%,这中间还是相差了很多,可能是因为我的参数设置没有调好,超参数之类的也是按照默认的来实验的。希望您能把您们的实验时的参数文件提供给我参考学习一下,用于目标检测的骨干网是resnet50和swin-b的这两个参数设置文件,期待您的回复!!!