MendelXu / SAN

Open-vocabulary Semantic Segmentation
https://mendelxu.github.io/SAN/
MIT License
295 stars 27 forks source link

关于COCO-Stuff171数据集准备的问题 #50

Closed ashun989 closed 5 months ago

ashun989 commented 6 months ago

这是一个很棒的工作! ~~在此向您汇报一个数据准备的小问题,使得该代码更容易为大家使用: 在 Data Preparation 中,您提到使用 SimSeg 中的脚本去准备 COCO-Stuff 数据集,也就是提前将不连续的类别标签转化为连续的类别标签; 但是在本项目注册 COCO-Stuff171 数据集时,代码表明您仍然使用原始的不连续标签; 因此在准备COCO-Stuff171时,不需要再生成一个连续的标签放在 $DETECTRON2_DATASETS/coco/stuffthingmaps_detectron2 下,直接使用原始标注 即可; 实践表明,修正这一处错误后,使用您提供的检查点才能在COCO-Stuff171上获得正确的性能,并在也可以正常训练。~~

我发现代码中并没有使用 stuff_dataset_id_to_contiguous_id,且作者提供数据处理流程是正确的。 (我在一个已经处理好的标注上又处理了一遍造成了之前的误解)

ashun989 commented 5 months ago

反倒是您提醒了我,我因为之前什么时候已经处理得到了一个标签连续的标注目录,再次在上面做处理就出错了。 你的问题应该就是需要用那个脚本处理一下 原始标注 就可以了。

------------------ 原始邮件 ------------------ 发件人: "MendelXu/SAN" @.>; 发送时间: 2024年3月18日(星期一) 晚上11:08 @.>; @.**@.>; 主题: Re: [MendelXu/SAN] 关于COCO-Stuff171数据集准备的问题 (Issue #50)

感谢您的提示,还想请教您在训练的过程中是否遇到过tgt_ids中的数字超出了out_prob的范围的情况,具体位置在BreadcrumbsSAN/san/model /matcher.py的116行cost_class = -out_prob[:, tgt_ids],是因为我没有运行https://github.com/MendelXu/zsseg.baseline/blob/master/datasets/prepare_coco_stuff_164k_sem_seg.py的缘故吗

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>