Open AI-Tianlong opened 10 months ago
Helllo~大佬。我现在想把ViT-Adapter从mmseg0.x 迁移到 mmseg1.x,并合并到mmseg官方库,以便更多的社区同学使用。但是在复现推理的时候出现了问题,权重中有些关键字不一样已经进行了修改,是能对的上的,但是推理结果是很乱,和没训练一样。在复现BEiT-Adapter的时候,由于mmseg实现的BEiT和您的有些差别,于是我先尝试使用您的BEiT写法,并把相关的库都升级到了最新的mmengine或mmcv或mmseg版本。但是模型权重加载后,推理的结果很差。并且模型训练也不收敛,不知道是否有哪些需要注意的地方,是我没有考虑到的呢? 我现在写了以下的几个文件:
BEiT-Adapter
backbone
BEiTAdapter(BEiT)
BEiT
BEiTAdapter
Mask2Former
MultiScaleDeformableAttention
x
c
cls
请问大佬有解决这个问题吗
解决了~
请问大佬有解决这个问题吗 解决了~
请问是如何解决的,方便分享一下吗?官方库里好像没有它
Helllo~大佬。我现在想把ViT-Adapter从mmseg0.x 迁移到 mmseg1.x,并合并到mmseg官方库,以便更多的社区同学使用。但是在复现推理的时候出现了问题,权重中有些关键字不一样已经进行了修改,是能对的上的,但是推理结果是很乱,和没训练一样。在复现BEiT-Adapter的时候,由于mmseg实现的BEiT和您的有些差别,于是我先尝试使用您的BEiT写法,并把相关的库都升级到了最新的mmengine或mmcv或mmseg版本。但是模型权重加载后,推理的结果很差。并且模型训练也不收敛,不知道是否有哪些需要注意的地方,是我没有考虑到的呢? 我现在写了以下的几个文件:
BEiT-Adapter
的backbone
,位于mmseg-models-backbone,BEiTAdapter(BEiT)
继承自BEiT
,和您的实现完全一致。BEiTAdapter
和Mask2Former
中的MultiScaleDeformableAttention
使用了mmcv-ops-multi-scale-deform_attn中的内容。x
,c
,cls
的值,我的复现和您的输出是完全一致的。但迭代之后,就不一致了,我想这个地方可能会导致后面的推理结果不正确?