swc-17 / SparseDrive

SparseDrive: End-to-End Autonomous Driving via Sparse Scene Representation
MIT License
384 stars 50 forks source link

关于Ego Status from T-1输入的问题 #70

Open guoyage opened 4 weeks ago

guoyage commented 4 weeks ago

image 我在代码中找到了规划模块的输入Front Feature Map和Symmetric Sparse Perception所在的位置,但是并没有看到Ego Status from T-1输入的代码。您能帮我指出这部分代码的位置吗?谢谢

swc-17 commented 3 weeks ago

here.

guoyage commented 3 weeks ago

here.

感谢您的回复,那么我产生了一个疑问,根据VAD的论文所述,其有两种结果,一种是采用Ego Status,另一种是不采用Ego Status作为输入,如下图所示 image dan'shi但是我看到您的论文里采用的对比结果是VAD不采用Ego Status时的结果,我很好奇,为了公平对比,这里是否应该取VAD的另一组结果进行对比?我不知道我这样的理解是否正确。期待您的回复

swc-17 commented 3 weeks ago

我们使用的ego status是通过模型预测出来的,而不是直接用gt ego status.

guoyage commented 3 weeks ago

我们使用的ego status是通过模型预测出来的,而不是直接用gt ego status.

好的,感谢

suayu commented 1 week ago

也就是说,尽管在训练时候用到了LIDAR和CAN BUG的gt ego status作为真值,但是在推理的时候只使用了6环视相机图像?