-
## 論文リンク
https://arxiv.org/abs/1901.10513
## 公開日(yyyy/mm/dd)
2019/01/29
ICML 2019
## 概要
AEsに対する脆弱性と自然なノイズに対する脆弱性に本質的な差は無いことを、実験と理論の両方で確認した。従って、頑健性を向上させる手法はimagenet-cのようなデータセットでの評価も同時に行うことが好ま…
-
**Describe the Bug**
**Minimal Steps/Code to Reproduce the Bug**
running script:
"python setup.py install --cpp_ext --cuda_ext"
The reporting log:
"torch.__version__ = 2.1.2+cu121
Com…
-
In the abstract of the [paper ](https://arxiv.org/abs/1703.00410)it says "The result is a method for implicit adversarial detection that is **oblivious to the attack algorithm.** "
But the final de…
-
Error:
Traceback (most recent call last):
File "examples/example_gan_convolutional.py", line 102, in
player_names=["generator", "discriminator"])
File "/usr/local/lib/python3.6/dist-pac…
-
## 論文リンク
https://arxiv.org/abs/1903.10346
## 公開日(yyyy/mm/dd)
2019/03/22
## 概要
音声認識において人間に違いが知覚しづらく、かつ over-the-air (スピーカーで流したり、マイクを使って録音したり、残響効果がある中で音を流したり、という風に現実世界で使用する場合を想定したケース) でも誤認識させるよ…
-
## 論文リンク
https://www.aclweb.org/anthology/P19-1103/
## 公開日(yyyy/mm/dd)
2019/07
## 概要
NLP における adversarial example で自然なものを作るというもの。
black box で入力(特に単語に対応する index をいじれる)と出力(の softmax 値)にアクセスできる…
-
While the idea of adversarial training is straightforward—-generate adversarial examples during training and train on those examples until the model learns to classify them correctly—-in practice it i…
-
**Name**: n-ML: Mitigating Adversarial Examples via Ensembles of Topologically Manipulated Classifiers
**Authors**: Mahmood Sharif, Lujo Bauer, Michael K. Reiter
**Paper**: https://arxiv.org/pdf/1…
-
Hi Guys, When I run the script (run_demo) with the model file generated from the run_training, I get
Model accuracy on adversarial examples: 0.6645
Fooling success rate: 0.0
Most of the adversar…
-
Hi,
Thanks for this repo!
The following code from the `aae.py` file line 197 - 199 confuse me a bit.
```
real_loss = adversarial_loss(discriminator(z), valid)
fake_loss = adversari…