Open futakw opened 4 years ago
AEに対するロバスト性とnatural accuracyのトレードオフを中心に、理論的に重要な考察が多くされている論文。必読。
https://arxiv.org/abs/1805.12152
トレードオフの原因は?→ロバストモデルとStandardモデルは、目的の違いにより、全く異なる特徴表現を学んでいる。
・データが無限大でも、トレードオフはある。 ・ロバスト学習が悪いのではなく、ロバスト学習である前提の元で、精度をあげる新たなテクニックが必要である。 ・ロバストモデルによって生成できるクラス間interpolationした画像は綺麗なものになっており、GANなどの生成モデルと似た性質を持っている。ここで、生成モデルとロバスト性の関連性が見える。
そもそもAEが存在する原因は、鞍点問題であると考えられる。 そこで考案されたのが、決定境界をいい具合にするためのATだった。AT=究極のデータオーグメンテーションと捉えられる。最も難しいデータ=最も学習に役立つデータ、とも言え、実際にMNISTのFew-shot設定ではATが役に立っている。
しかし、ATは遅いし、潜在的にデータが足りないと言う問題がある。 しかし逆に、疑問は、仮に時間もデータも無限ならばATは最強なのか?ということだった。 そして大きな疑問は、なぜトレードオフが存在するか、ということ。
<定理>最重要feature(確率p)が完璧でないとき、1 - δのstandard accの分類器は、(p/(1-p)) * δのロバスト精度となる。
人間は正確かつロバストだが、人間より画像認識モデルの方が精度高かったりするから、人間にも成り立つことなのでは?ともいっている。
ATの重要性について ATは必須だと主張している。
ロバスト性の予期せぬ効果として、人に近い知覚を行っている! Input spaceにおけるLoss gradients に基づくsaliency mapによる分析。 →natural training ではby designに訓練をしないと、人に近い知覚を行わない、ということがわかる。
ひとことで言うと
AEに対するロバスト性とnatural accuracyのトレードオフを中心に、理論的に重要な考察が多くされている論文。必読。
論文リンク
https://arxiv.org/abs/1805.12152
概要
トレードオフの原因は?→ロバストモデルとStandardモデルは、目的の違いにより、全く異なる特徴表現を学んでいる。
貢献
・データが無限大でも、トレードオフはある。 ・ロバスト学習が悪いのではなく、ロバスト学習である前提の元で、精度をあげる新たなテクニックが必要である。 ・ロバストモデルによって生成できるクラス間interpolationした画像は綺麗なものになっており、GANなどの生成モデルと似た性質を持っている。ここで、生成モデルとロバスト性の関連性が見える。
疑問提起
そもそもAEが存在する原因は、鞍点問題であると考えられる。 そこで考案されたのが、決定境界をいい具合にするためのATだった。AT=究極のデータオーグメンテーションと捉えられる。最も難しいデータ=最も学習に役立つデータ、とも言え、実際にMNISTのFew-shot設定ではATが役に立っている。
しかし、ATは遅いし、潜在的にデータが足りないと言う問題がある。 しかし逆に、疑問は、仮に時間もデータも無限ならばATは最強なのか?ということだった。 そして大きな疑問は、なぜトレードオフが存在するか、ということ。
内容
<定理>最重要feature(確率p)が完璧でないとき、1 - δのstandard accの分類器は、(p/(1-p)) * δのロバスト精度となる。
人間は正確かつロバストだが、人間より画像認識モデルの方が精度高かったりするから、人間にも成り立つことなのでは?ともいっている。
ATの重要性について ATは必須だと主張している。
ロバスト性の予期せぬ効果として、人に近い知覚を行っている! Input spaceにおけるLoss gradients に基づくsaliency mapによる分析。 →natural training ではby designに訓練をしないと、人に近い知覚を行わない、ということがわかる。
先行研究との差異
手法のキモ
評価方法
議論
関連論文