Open fulfulggg opened 1 month ago
@yukihiko-fuyuki が以下のラベルを提案し、適用しました:
目的: 自動運転など、シーン認識が重要な分野において、高精度な画像認識を可能にするハイパースペクトルカメラの活用が期待されている。本論文では、ハイパースペクトルカメラを用いたセマンティックセグメンテーション(画像の各ピクセルがどの物体に属するかを識別する技術)の性能を測定するためのベンチマーク「HS3-Bench」を提案。
HS3-Benchの特徴:
提案手法:
重要な発見:
今後の課題:
コード公開: ベンチマークとベースラインモデルの実装は、https://github.com/nickstheisen/hyperseg で公開されている。
タイトル: HS3-Bench: 走行シーンにおけるハイパースペクトルセマンティックセグメンテーションのためのベンチマークと強力なベースライン
リンク: https://arxiv.org/abs/2409.11205
概要:
セマンティックセグメンテーションは、シーンとその中のオブジェクトを理解するために、多くのビジョンアプリケーションにとって不可欠なステップです。ハイパースペクトルイメージング技術の最近の進歩により、運転シナリオへの応用が可能になり、デバイスの知覚能力がRGBカメラよりも優れていることが期待されています。いくつかのデータセットは存在しますが、このタスクの進捗状況を体系的に測定し、ハイパースペクトルデータの利点を評価するための標準的なベンチマークはありません。この論文では、HyperSpectral Semantic Segmentationベンチマーク(HS3-Bench)を提供することにより、このギャップを埋めることを目指します。これは、3つの運転シナリオデータセットからの注釈付きハイパースペクトル画像を組み合わせたもので、標準化されたメトリック、実装、および評価プロトコルを提供します。このベンチマークを使用して、個々のデータセットの事前トレーニングの有無にかかわらず、以前の最先端のパフォーマンスを上回る2つの強力なベースラインモデルを導き出します。さらに、私たちの結果は、既存の学習ベースの方法では、追加のハイパースペクトルチャネルを活用するよりも、追加のRGBトレーニングデータを活用する方がメリットが大きいことを示しています。これは、運転シナリオにおけるセマンティックセグメンテーションのためのハイパースペクトルイメージングに関する将来の研究にとって重要な課題を提示します。ベンチマークと強力なベースラインアプローチを実行するためのコードは、https://github.com/nickstheisen/hypersegで入手できます。