Sosuke115 / paper-reading

4 stars 1 forks source link

Adversarial Neural Pruning with Latent Vulnerability Suppression [ICML 2020] #34

Open futakw opened 3 years ago

futakw commented 3 years ago

ひとことで言うと

"vulnerable feature" を判定し、そこをweight pruningすることで、robust feature だけ残す。それにより、SOTA robustnessを達成。 ANS-VS (Adversarial Neural Pruning with Vulnerability Suppression)。

論文リンク

https://arxiv.org/abs/1908.04355

概要

・Vulnerable features の定義はシンプル。 ・normal input によるfeatureとadv input によるfeatureの距離の大きさ

スクリーンショット 2020-10-15 23 25 08

・学習方法 重みパラメータθは、以下のロスで学習する。分類誤差+featureロバスト性

スクリーンショット 2020-10-15 23 34 44

Pruning用のmask:Mは以下のロスで学習する。

スクリーンショット 2020-10-15 23 36 50

結果

スクリーンショット 2020-10-15 23 43 05

PGD-ATよりもいい。

議論

Featureそれぞれのロバスト性を評価してロスに加えるのは、BPFCの手法よりよさそう。 よりロバストなfeatureを得るように学習すると共に、weightをpruneしていくので、厳選されていくイメージ?

関連論文

Achieving Adversarial Robustness via Sparsity. Adversarial robustness vs. model compression, or both?