-
I'm trying to re-implement the Resnet-18 + Cifar-100 experiment. I followed the steps in readme. And in [Generate per-class activation paths](https://github.com/Ptolemy-DL/Ptolemy#generate-per-class-a…
-
### Tutorial Materials(?)
https://aaai18adversarial.github.io/
### Bo Li
http://bair.berkeley.edu/blog/2017/12/30/yolo-attack/
https://arxiv.org/abs/1707.08945
https://www.youtube.com/watch?v=…
-
## 論文リンク
- [arXiv](https://arxiv.org/abs/1704.00103)
## 公開日(yyyy/mm/dd)
2017/04/01
ICCV 2017
## 概要
## TeX
```
% 2017/04/01
@inproceedings{
lu2017safetynet,
title={SafetyNet:…
-
## 論文リンク
https://www.aclweb.org/anthology/P19-1559/
## 公開日(yyyy/mm/dd)
2019/07
## 概要
NLP における流暢な adversarial examples の作成を目指した論文。
black box と white box の両方に使える手法で、単語の置き換えをベースにしているものになっていて、その…
-
## 一言でいうと
Adversarial Exampleへの耐性を上げるために、モデル側ではなくデータセット側を工夫するという論文。そもそもAdversarial Exampleは「汎用的ではない特徴」でモデルがこれに依存しているだけではとし、入力から「汎用的ではない特徴」を抜いたデータセットを作成しそれで学習という方法をとっている
![image](https://user-ima…
-
Paper link : https://papers.nips.cc/paper/8307-adversarial-examples-are-not-bugs-they-are-features
Conference : NeurIPS 2019
Source code : https://github.com/MadryLab/robustness
サーベイ資料は[こちら](ht…
-
These are adversarial images that semantically represent the same object as the original images. For example, in [2] these are created by perturbing the following components of an image:
* Hue
* Sat…
-
# [ Adversarial Attack and Example ]
### 1. Adversarial Attack에 대한 전반적인 소개
### 2. 리뷰할 논문
- [Intriguing properties of neural networks](https://arxiv.org/abs/1312.6199)
- [Explaining and Harne…
-
## 論文リンク
- [arXiv](https://arxiv.org/abs/1704.01155)
## 公開日(yyyy/mm/dd)
2017/04/04
NDSS 2018
## 概要
## TeX
```
% 2017/04/04
@inproceedings{
xu2018feature,
title={Feature Sque…
-
## 論文リンク
https://arxiv.org/abs/1905.02175
## 公開日(yyyy/mm/dd)
2019/05/06
## 概要
adversarial example にはデータが内包する non-robust feature によって引き起こされるものだということを示した論文。
元データから robust feature のみ、non-robust…