yusukekyokawa / paper_list

2 stars 0 forks source link

[CVPR2016]Visualizing and Understanding Deep Texture Representations #51

Open yusukekyokawa opened 3 years ago

yusukekyokawa commented 3 years ago

書誌情報

論文リンク

https://people.cs.umass.edu/~tsungyulin/Publication/texture-cvpr16.pdf

著者/所属機関

Tsung-Yu Lin and Subhransu Maji University of Massachusetts, Amherst

conf/journal

CVOR

year

2016

どんな論文か?

最近の多くのアプローチでは、深層畳み込みニューラルネットワーク(CNN)を用いてテクスチャ表現を構築している。それにもかかわらず、これらのモデルがどのようにしてテクスチャを表現しているのか、また、カテゴリー的変動に対する不変性をどのように表現しているのかはまだ明らかになっていない。本研究では、認識のための最近のCNNベースのテクスチャ記述子を系統的に評価し、これらの表現によって捕捉される不変性の性質を理解しようとする。まず、最近提案されたバイリニアCNNモデル[25]が優れた汎用テクスチャ記述子であり、様々なテクスチャやシーン認識ベンチマークにおいて他のCNNベースの記述子と比較して優れていることを示す。このモデルは並進不変であり,空間ジッタリングを用いて学習された対応するモデルと比較して,データの空間ジッタリングを必要とせずにImageNetデータセット上でより良い精度を得ることができる.最近の研究[13, 28]に基づいて、プレイメージを可視化する技術を提案し、これらの表現によって捕捉されるカテゴリ特性を理解するための手段を提供する。最後に、テクスチャ解析と合成の統一されたパラメトリックモデルをどのようにして属性ベースの画像操作に使用できるかについての予備的な結果を示します(例:画像をより渦巻き状にしたり、ハニカム状にしたり、ニット状にしたり)。ソースコードとその他のビジュアライゼーションは http://vis-www.cs.umass.edu/texture でご覧いただけます。

www.DeepL.com/Translator(無料版)で翻訳しました。

新規性

手法

結果

コメント