Open fulfulggg opened 1 week ago
本研究では、オブジェクトに対する手の把持生成に焦点を当てます。オブジェクトを与えられたもとでの手の姿勢生成に関する先行研究とは異なり、単一のモデルで手とオブジェクトの両方の形状の汎化を可能にすることを目指します。提案手法であるマルチモーダル把持拡散(MGD)は、異種データソースから両方のモダリティの事前分布と条件付き事後分布を学習します。したがって、大規模な3Dオブジェクトデータセットを活用することで、手とオブジェクトの把持データセットの制限を緩和します。定性的および定量的な実験によると、条件付きおよび無条件の両方の手の把持生成は、優れた視覚的妥当性と多様性を達成しています。提案手法は、未知のオブジェクト形状にも適切に一般化できます。コードと重みは、\url{https://github.com/noahcao/mgd} で公開予定です。
@yukihiko-fuyuki が以下のラベルを提案し、適用しました:
目的:
課題:
提案手法 (MGD: マルチモーダル把持拡散):
成果:
貢献:
タイトル: ハンドオブジェクト把持生成のためのマルチモーダル拡散モデル
リンク: https://arxiv.org/abs/2409.04560
概要:
本研究では、オブジェクトに対する手の把持生成に焦点を当てます。オブジェクトを与えられたもとでの手の姿勢生成に関する先行研究とは異なり、単一のモデルで手とオブジェクトの両方の形状の汎化を可能にすることを目指します。提案手法であるマルチモーダル把持拡散(MGD)は、異種データソースから両方のモダリティの事前分布と条件付き事後分布を学習します。したがって、大規模な3Dオブジェクトデータセットを活用することで、手とオブジェクトの把持データセットの制限を緩和します。定性的および定量的な実験によると、条件付きおよび無条件の両方の手の把持生成は、優れた視覚的妥当性と多様性を達成しています。提案手法は、未知のオブジェクト形状にも適切に一般化できます。コードと重みは、\url{https://github.com/noahcao/mgd} で公開予定です。