usersan / papers

読んだ論文のメモ置き場:主にエッジAI、高速化、FPGA実装関連など
0 stars 0 forks source link

BinaryConnect: Training Deep Neural Networks with binary weights during propagations #4

Open usersan opened 4 years ago

usersan commented 4 years ago

0. 論文

Matthieu Courbariaux, Yoshua Bengio, Jean-Pierre David

https://arxiv.org/abs/1511.00363

1. どんなもの?

NNの重みをバイナリ化(-1, 1)

順伝播で重みWをバイナリ化してWbとする 更新時にWbを使った勾配でWを更新する そのときに(-1, 1)でクリップ 学習自体はWつまり実数で行う

BatchNorm使用

2. 先行研究と比べてどこがすごい?

Wを更新するので、バイナリ化での誤差が蓄積しない

3. 技術や手法のキモはどこ?

バイナリ化することで乗算を加算にできる

重みをバイナリ化すると正則化の効果が出る クリップすることでパラメータが発散しないようにしている

4. どうやって有効だと検証した?

MNIST、CIFAR-10、SVHNでバイナリ化なしとほぼ同等の性能

5. 議論はある?

6. 次に読むべき論文は?

量子化関連の論文一覧 https://developer.smartnews.com/blog/2017/03/neural-network-quantization/