Open Kizuuuuuna opened 1 year ago
__________________ カメラ映像 ↓ a. 作物位置の検出 ↓ b. セマンティック・セグメンテーション による環境認識 ↓ c. 誤分類された領域の除去 ↓ d. 収穫可能な作物の決定 __________________
↓上記フローのコピー↓ __________________ カメラ映像 ↓ a. 作物位置の検出 ↓ b. セマンティック・セグメンテーション による環境認識 ↓ c. 誤分類された領域の除去 ↓ d. 収穫可能な作物の決定 __________________
有効・適切であるもの / 無効・適切とは言えないもの・不要なもの
上記iiに関して、①"どのような点が"、②"どのように適していないか"
b・・・①セマセグをする目的が、②環境認識(障害物検知)ではない 吉田さんの研究の場合→セマセグの目的:障害物の検知 対して本研究の場合→トマトに比べて障害物が少ないため、障害物検知を目的としたセマセグは不要 →実際にロボットのエンドエフェクタが収穫アプローチをかけるのは茎⇒収穫するには”茎”の認識が必須 →茎は小さな物体(少領域)であるため、実や茎のセグメンテーションが必要か(セマセグである必要性は別で検討) →熟度を判断するために、イチゴの実の領域の色成分や色の割合などを抽出する必要もある
d・・・①決定方法が、②”障害物との”位置関係ではなく、”近くのいちごや茎との”位置関係 かつ、①「収穫可能な作物の決定」ではなく、②収穫アプローチの決定 上に示している通り、”障害物の”検出はしない →”収穫したいイチゴの周辺のイチゴや茎”から、”収穫アプローチ”を決める必要がある
イチゴ果実の物体認識にインスタンスセグメンテーションの使用を検討する。 インスタンスセグメンテーションである理由としては以下の2つ。
以上の二点から、セマンティックセグメンテーションタスクと、物体検出タスクを組み合わせたようなタスクである、「インスタンスセグメンテーション」が有効であると判断した。
[1] CVMLエキスパートガイド, インスタンスセグメンテーション. https://cvml-expertguide.net/terms/dl/instance-segmentation/ ( [2] Qiita, YOLOの進化系YOLACT,YOLOACT++の徹底解説, https://qiita.com/miiuchu/items/12181952452aba73d6c1 )
※https://github.com/open-mmlab/mmdetection 参照
研究内容
菜園に生るイチゴのカメラ撮影により得られた画像に対して、深層学習的手法を用いた画像処理を行い、イチゴの位置検出から収穫可能なイチゴの判別、そして収穫アプローチの決定までを行うソフトウェア開発を行う。最終的には、そのシステムの実装まで実施する事を目標にする →想定して”いた”ロボットの詳細については、https://github.com/syasukawa/iagrirob/issues/14#issuecomment-1646452844 の議事録参照 ※現在は本ロボット自体の開発は中止
画像処理に関する検討項目