Open yiskw713 opened 4 years ago
Philipp Fischer, Alexey Dosovitskiy, Eddy Ilg, Philip Häusser, Caner Hazırbaş, Vladimir Golkov, Patrick van der Smagt, Daniel Cremers, Thomas Brox
arXiv:1504.06852
arXiv 実装
CNNを用いたOptical Flowを推定する手法を初めて提案. また学習のための合成データを用いたデータセットも提案している, 手法はシンプルで,二つの画像をチャネル方向にコンカットしたものを FCNを模したようなネットワークに入力している. デコーダー部分ではdecovolutionしたあと,upsamplingを用いている.
エンコーダー部分. 二つのネットワークを提案していて,上は普通のエンコーダー, 下は二つの画像の特徴量を別々にだし,途中でそれらのcorrelationをとったものを特徴量としている. 実際には,上のFlowNetSimple で十分とのこと.
デコーダー部分.
定性的な結果はこんな感じ
定量的な評価指標としては,Endpoint Error (EPE) を用いている. これは,各ピクセルにおける G.T. のoptical flow と 予測された optical flow (ベクトル(x, y)) のユーグリッド距離を,全ピクセルに対して平均したものとなっている. 損失関数もこれを用いている.要は再構成誤差.
May 19th, 2020
INFO
author
Philipp Fischer, Alexey Dosovitskiy, Eddy Ilg, Philip Häusser, Caner Hazırbaş, Vladimir Golkov, Patrick van der Smagt, Daniel Cremers, Thomas Brox
affiliation
conference or year
arXiv:1504.06852
link
arXiv 実装
概要
CNNを用いたOptical Flowを推定する手法を初めて提案. また学習のための合成データを用いたデータセットも提案している, 手法はシンプルで,二つの画像をチャネル方向にコンカットしたものを FCNを模したようなネットワークに入力している. デコーダー部分ではdecovolutionしたあと,upsamplingを用いている.
提案手法
エンコーダー部分. 二つのネットワークを提案していて,上は普通のエンコーダー, 下は二つの画像の特徴量を別々にだし,途中でそれらのcorrelationをとったものを特徴量としている. 実際には,上のFlowNetSimple で十分とのこと.![Screen Shot 2020-05-19 at 23 31 49](https://user-images.githubusercontent.com/38214459/82339407-f780bc80-9a28-11ea-9de6-e80fb6ce47be.png)
デコーダー部分.![Screen Shot 2020-05-19 at 23 31 58](https://user-images.githubusercontent.com/38214459/82339902-87bf0180-9a29-11ea-9a0a-f08f6e7693f1.png)
検証
定性的な結果はこんな感じ![Screen Shot 2020-05-19 at 23 31 30](https://user-images.githubusercontent.com/38214459/82339907-8988c500-9a29-11ea-9c48-94dd7c6d5e88.png)
定量的な評価指標としては,Endpoint Error (EPE) を用いている. これは,各ピクセルにおける G.T. のoptical flow と 予測された optical flow (ベクトル(x, y)) のユーグリッド距離を,全ピクセルに対して平均したものとなっている. 損失関数もこれを用いている.要は再構成誤差.
Comment
date
May 19th, 2020