Sosuke115 / paper-reading

4 stars 1 forks source link

Robustness May Be at Odds with Accuracy [ICLR2019] #31

Open futakw opened 4 years ago

futakw commented 4 years ago

ひとことで言うと

AEに対するロバスト性とnatural accuracyのトレードオフを中心に、理論的に重要な考察が多くされている論文。必読。

論文リンク

https://arxiv.org/abs/1805.12152

概要

トレードオフの原因は?→ロバストモデルとStandardモデルは、目的の違いにより、全く異なる特徴表現を学んでいる。

貢献

・データが無限大でも、トレードオフはある。 ・ロバスト学習が悪いのではなく、ロバスト学習である前提の元で、精度をあげる新たなテクニックが必要である。 ・ロバストモデルによって生成できるクラス間interpolationした画像は綺麗なものになっており、GANなどの生成モデルと似た性質を持っている。ここで、生成モデルとロバスト性の関連性が見える。

疑問提起

そもそもAEが存在する原因は、鞍点問題であると考えられる。 そこで考案されたのが、決定境界をいい具合にするためのATだった。AT=究極のデータオーグメンテーションと捉えられる。最も難しいデータ=最も学習に役立つデータ、とも言え、実際にMNISTのFew-shot設定ではATが役に立っている。

しかし、ATは遅いし、潜在的にデータが足りないと言う問題がある。 しかし逆に、疑問は、仮に時間もデータも無限ならばATは最強なのか?ということだった。 そして大きな疑問は、なぜトレードオフが存在するか、ということ。

内容

  1. 二値分類で実験 AEが存在するのは、弱く相関している特徴量たちも存分に利用するからである。モデルは、どんな特徴量でも精度のためなら利用する。弱く相関している特徴量たちを少しずついじることで、y-> -yにさせることが可能。

<定理>最重要feature(確率p)が完璧でないとき、1 - δのstandard accの分類器は、(p/(1-p)) * δのロバスト精度となる。

人間は正確かつロバストだが、人間より画像認識モデルの方が精度高かったりするから、人間にも成り立つことなのでは?ともいっている。

  1. ATの重要性について ATは必須だと主張している。

  2. ロバスト性の予期せぬ効果として、人に近い知覚を行っている! Input spaceにおけるLoss gradients に基づくsaliency mapによる分析。 →natural training ではby designに訓練をしないと、人に近い知覚を行わない、ということがわかる。

スクリーンショット 2020-10-03 16 28 13
  1. AEのperturbationをどんどん大きくしていった時、Standardモデルではただ点々ができるだけだけど、ロバストモデルだと、人の知覚に近いように別クラスの画像ができる。 ロバストモデルのAEを強くしていくと、GANを用いずに、クラス間の中間のような画像を生成できる。
スクリーンショット 2020-10-03 16 28 30 スクリーンショット 2020-10-03 16 29 43

先行研究との差異

手法のキモ

評価方法

議論

関連論文