Drunkar / papers

0 stars 0 forks source link

Decentralized Visual-Inertial-UWB Fusion for Relative State Estimation of Aerial Swarm #8

Open Drunkar opened 4 years ago

Drunkar commented 4 years ago

image

image

一言でいうと

UWBとIMU、さらにYOLOv3-tinyとRealSense D435iを使うことで分散型のフォーメーションフライトを実現(5台)。オンボードプロセッサはJetson TX-2搭載のDJI Manifold2-G。UWBモジュールはNooploop社の(おそらく)LinkTrack。 UWBはポジショニングシステムではなく、相対距離の検出に使用する。 トラッキング誤差はUWBのみのときの50cm程度から25cm程度へと改善。

論文リンク

著者/所属機関

Hao Xu, Luqi Wang, Yichen Zhang, Kejie Qiu, Shaojie Shen

投稿日付(yyyy/MM/dd)

Wed, 11 Mar 2020 07:16:37 UTC

掲載誌・学会等

ICRA 2020

先行研究と比べてどこがすごい?

技術や手法のキモはどこ?

  1. 最初のVIOでは、カメラとIMUから状態を推定するSLAMの一手法であるVINS-Fusionを使う。( https://github.com/pjrambo/VINS-Fusion-gpu )
  2. VIO、他ドローンの相対位置(UWB)、他ドローンの相対位置(YOLO+D435)をブロードキャスト送信
  3. 新たなドローンを含むなど、より望ましいフレームを含むウィンドウ(最大50 frames)を選択する
  4. 以下の誤差の和が最小になるような現在位置を各ドローンそれぞれ計算する:
    1. UWBで計算された他ドローンとの距離と、他ドローンのVIO-推定自己位置との誤差
    2. YOLO+D435 (1と同じ)
    3. 自らのVIOからの現在状態推定
      • 2: YOLOとD435で検出された機体は3次元空間での大きさにスケールし直し、バウンディングボックスのサイズが実際の機体とかけ離れていた場合外れ値とみなす。
      • 4: 最小化計算はCeres-solverを使う( https://github.com/ceres-solver/ceres-solver )
      • 4: ホバリングしてるドローンの場合はVIOによる状態推定項を消すなどで計算資源を節約できる。

        どうやって有効だと検証した?

        議論や検証がまだ必要なところはある?

        次に読むべき論文は?

        コメント