Closed secret104278 closed 1 year ago
你好,首先感謝開源這麼厲害的一個專案,跑過 training 之後有幾點問題想請教一下你們組的看法:
目前 SurroundOcc 的 output 是固定解析度的 voxel grid (XYZ),在 Tesla AI Day 有提到他們最後除了 fixed-size voxel grid 以外還有 per voxel feature map 可以再遞給 MLP 透過 3D spatial point query 達到理論無限解析度的 continuous occupancy probability,像請問你們組關於這段的模型有什麼看法或相關實驗嗎?
目前 ground truth occupancy voxel grid 是透過將多偵 lidar point cloud 合併在一起,並透過 3d bbox label 將動態物體摳出對齊。不過這樣的做法實務上會面臨一個問題是,occupancy network 的一大優勢在於可以感知異形體或是沒有被 bbox 標注的複雜物體,但目前 SurroundOcc 生成 ground truth 的方法對於 dynamic object 只受限在已知的 bbox。想請問關於這點你們組有什麼想法或實驗嗎?
你好,关于你的两个问题我们有以下想法:
@weiyithu 感謝你的回覆
你好,首先感謝開源這麼厲害的一個專案,跑過 training 之後有幾點問題想請教一下你們組的看法:
目前 SurroundOcc 的 output 是固定解析度的 voxel grid (XYZ),在 Tesla AI Day 有提到他們最後除了 fixed-size voxel grid 以外還有 per voxel feature map 可以再遞給 MLP 透過 3D spatial point query 達到理論無限解析度的 continuous occupancy probability,像請問你們組關於這段的模型有什麼看法或相關實驗嗎?
目前 ground truth occupancy voxel grid 是透過將多偵 lidar point cloud 合併在一起,並透過 3d bbox label 將動態物體摳出對齊。不過這樣的做法實務上會面臨一個問題是,occupancy network 的一大優勢在於可以感知異形體或是沒有被 bbox 標注的複雜物體,但目前 SurroundOcc 生成 ground truth 的方法對於 dynamic object 只受限在已知的 bbox。想請問關於這點你們組有什麼想法或實驗嗎?