Closed shmpwk closed 4 years ago
virtual camera monoとdepth image creatorを使って,depth imageをこのようにbounding boxのフレーム(/segmentation_decomposeroutput00)の真上から見たdepth imageに変換しています.
次の写真で左下のImageは,対象物を真上から見たdepth Imageに変換されたものです.
しかし,変換した後のdepth imageは,nan値ばかりです. おそらく,自分の予想では,depth image creatorがorganized point cloudに基づいてdepth imageを作っていて,このorganized point cloudは,organizeするためにarrayをnan値で埋めているので,depth imageもnanが多くなるのかなと思いました.
[再現実験] まず,次のdepth_dataフォルダを,~/Data/depth_dataとなるように配置します. depth_data.zip 次に,ホームディレクトリ上でpython PATH_TO_depth_pickle_load.pyを実行します. すると,depth imageを可視化することができます.このとき,nan値は0で埋めています. 例えば,出力されるdepth mapはこのようにnan値を埋めた0ばかりです.
~/Data/depth_data
python PATH_TO_depth_pickle_load.py
[[[0. 0. 0. ... 0. 0. 0. ] [0. 0. 0. ... 0. 0. 0. ] [0. 0.33934605 0. ... 0. 0. 0. ] ... [0. 0. 0. ... 0. 0. 0. ] [0. 0. 0. ... 0. 0. 0. ] [0. 0.34285054 0. ... 0. 0. 0.33531582]]]
出力されるdepth image写真の例:
白い皿のdepth image
少し縁が高い黒い皿のdepth image
上のdepth imageの写真は,大きさは違いますが切り取り方が違うだけです.
もともと点群が荒いので仕方がない.
HeightmapMorphologicalFilteringやMorphologicalOperatorで,点・線を太くするなどする.
virtual camera monoとdepth image creatorを使って,depth imageをこのようにbounding boxのフレーム(/segmentation_decomposeroutput00)の真上から見たdepth imageに変換しています.
次の写真で左下のImageは,対象物を真上から見たdepth Imageに変換されたものです.
しかし,変換した後のdepth imageは,nan値ばかりです. おそらく,自分の予想では,depth image creatorがorganized point cloudに基づいてdepth imageを作っていて,このorganized point cloudは,organizeするためにarrayをnan値で埋めているので,depth imageもnanが多くなるのかなと思いました.
[再現実験] まず,次のdepth_dataフォルダを,
~/Data/depth_data
となるように配置します. depth_data.zip 次に,ホームディレクトリ上でpython PATH_TO_depth_pickle_load.py
を実行します. すると,depth imageを可視化することができます.このとき,nan値は0で埋めています. 例えば,出力されるdepth mapはこのようにnan値を埋めた0ばかりです.出力されるdepth image写真の例:
白い皿のdepth image
少し縁が高い黒い皿のdepth image
上のdepth imageの写真は,大きさは違いますが切り取り方が違うだけです.