dsx0511 / 3DMOTFormer

Offical implementation of ICCV2023 paper 3DMOTFormer: Graph Transformer for Online 3D Multi-Object Tracking.
Other
66 stars 10 forks source link

请问是只需要下载nuscens的meta数据吗? #5

Closed eggman-1024 closed 3 months ago

eggman-1024 commented 3 months ago

1719645114229 如上图所示:只需要下载meta数据吗? 如下图suo'shi所示:只需要下载红色框里的数据吗?怎么感觉绿色框数据也得下载呢? 1719645200108

dsx0511 commented 3 months ago

绿色框里的内容主要包括图像,点云等sensor data,而我们训练中只需要任意detector的结果(可以下载到,见README)以及ground truth(在meta data里),只有可视化时才需要绿色框中的sensor data。

eggman-1024 commented 3 months ago

感谢作者大大!但是训练的时候咋报错说找不到那些sensor data嘞?

dsx0511 commented 3 months ago

我们暂时没有测试过只下载meta data来训练,如果没有sensor data,nuscenes-devkit在读取数据集时有可能会报错。这种情况下建议直接下载整个数据集。

eggman-1024 commented 3 months ago

好的好的!(好不容易逮到作者大佬)有几个问题不清楚: 1.所以说训练还是需要整个数据集的意思吧? 2.数据集sensor data只需要点云就可以了吧? 3.请问您开源的代码里有可视化预览代码吗? 十分感谢您的回答!

dsx0511 commented 3 months ago

训练需要整个数据集,但是只需要meta data而不需要点云。训练时报错找不到sensor data不是因为我们的模型需要sensor data,而是nuscenes devkit在找不到sensor data的情况下会报错。你可以通过修改代码来解决这个问题,但是更简单的解决方法就是直接下载整个数据集。我们没有开源自己的可视化代码,需要可视化的话可以参考PF-Track.

eggman-1024 commented 3 months ago

okk,懂了,就是说您的工作专注于tracking而不是detection,所以只需要meta data(标注的detection信息)。

dsx0511 commented 3 months ago

是的,这篇文章不涉及detection

eggman-1024 commented 3 months ago

十分感谢