tkuri / papers

Summarizing the papers I have read (Japanese)
41 stars 1 forks source link

Attention Attention Everywhere: Monocular Depth Prediction with Skip Attention #524

Open tkuri opened 1 year ago

tkuri commented 1 year ago

論文概要

単眼Depth推定SoTAをAttentionを使い倒すことで達成。提案するSkip Attention Moduleは通常の畳み込みベースのスキップ接続とは異なり長距離依存性を持つデコーダ特徴を融合することができ、より正確な深度ラベルを導出可能。

bib_20221019 00 https://arxiv.org/abs/2210.09071v1

Code

https://github.com/ashutosh1807/pixelformer