lisosia / cv_knowledge

some note for Computer Vision (日本語)
1 stars 0 forks source link

In-Place Activated BatchNorm for Memory-Optimized Training of DNNs #4

Open lisosia opened 4 years ago

lisosia commented 4 years ago

一言でいうと

activationが逆変換可能(~= 一様増加, LeakeyReluなど)の場合、BatchNormを少し修正すれば、学習時のbatchnorm+activation後のtensorの保存を省略でき、最大50%メモリ省略できる。

スクリーンショット 2020-07-08 08-38-07

論文リンク

https://arxiv.org/pdf/1712.02616.pdf

著者/所属機関

Mapillary Research

投稿日付(yyyy/MM/dd)

2018/10/26

概要

新規性・差分

手法

結果

スクリーンショット 2020-07-08 08-34-31

コメント

batchsize同条件ならbatchnormより劣化する?
また、batchsize同条件の精度比較や、メモリ結局いくら使うかの表グラフがないのが解せない。

実装: https://github.com/mapillary/inplace_abn