kunimasa-kawasaki / arXiv_Robotics

0 stars 0 forks source link

🚧 2020: Transferable Task Execution from Pixels through Deep Planning Domain Learning #24

Open kunimasa-kawasaki opened 1 year ago

kunimasa-kawasaki commented 1 year ago

Transferable Task Execution from Pixels through Deep Planning Domain Learning Kei Kase, Chris Paxton, Hammad Mazhar, Tetsuya Ogata, Dieter Fox 7 pages, 6 figures. Conference paper accepted in International conference on Robotics and Automation (ICRA) 2020 https://arxiv.org/abs/2003.03726

kunimasa-kawasaki commented 1 year ago

ロボットは生の視覚入力から多くの操作タスクを解決するモデルを学習できるが、通常、これらのモデルを用いて新しい問題を解決することはできない。一方、STRIPSのような記号的計画法は、古くから領域定義と記号的目標だけを与えて新しい問題を解くことができるが、これらのアプローチは、部分的に観測可能な世界のセンサーデータからこれらの記号を接地するという課題のため、実世界のロボットタスクではしばしば苦戦を強いられる。我々は、階層的なモデルを学習するために、両方の手法の長所を組み合わせたアプローチである深層計画領域学習(Deep Planning Domain Learning: DPDL)を提案する。DPDLは、現在の記号世界の状態からなる大規模な論理述語の集合に対して値を予測する高位モデルを学習し、別途、記号演算子をロボット上で実行可能な動作に変換する低位ポリシーを学習する。これにより、ロボットが明示的に学習していない複雑で多段階のタスクを実行することができる。我々は、フォトリアリスティックキッチンシナリオにおける操作タスクについて、本手法を示す。