-
World Wide Web' 24
Michiharu Yamashita, Thanh Tran, Dongwon Lee
-
I've been working with DPBGA and have encountered some issues that I'd like to clarify:
**ASR Drops to Zero with Different Target Class:**
When I change the target class (e.g., to Flickr), the A…
-
Achieving Code Execution in MathGPT via Prompt Injection - 28 января 2023
ChatGPT Plugin Privacy Leak - май 2023 г.
Attack on Machine Translation Services - 30 апреля 2020 г.
GPT-2 Model Replicatio…
-
# Handle
0xRajeev
# Vulnerability details
## Impact
Event log poisoning is possible by griefing attackers who have no DAO weight but vote and emit event that takes up event log space.
## Proof o…
-
Setup: define `EVIDENCE_SOURCE__[s3_test]__accessKeyId`
What happens in the following command?
`EVIDENCE_SOURCE__[s3_test]__accessKeyId="\'); CREATE SECRET my_other_secret ( TYPE S3, KEY_ID \'${EV…
-
## 一言でいうと
文書分類器にバックドアを設置する手法と対策。自然言語処理では、一般公開されている大規模な事前学習モデルをユーザがファインチューニングして利用するケースが増えている。攻撃者は事前学習モデルの重みを細工することで、これを利用して作成されたモデルにバックドアを仕込むことが可能となる。
### 論文リンク
https://arxiv.org/abs/2004.06660
…
-
Mainly based on the article http://aurelieherbelot.net/pears/ I suspect PeARS to be quite prone to e.g. poisoning of search results made across the distributed network.
Also forgery (e.g. "let's prom…
-
| Keywords | References | link |
|-------------------------------|-------------------------------|---------------------------------|
| D…
-
Hello. Thank you for your excellent work.I have some questions about the statements in the paper and hope to receive your answers。In Table 3, you compared the differences between your method and other…
-
## 一言でいうと
ブラックボックスで画像分類モデルにバックドアを設置する手法。細工データを注入した学習データを攻撃対象モデルに学習させることで、特定の入力データを攻撃者が意図したクラスに分類させることが可能。細工データは見た目に違和感がないため、ラベリング工程でデータの異常を検知することは困難。
### 論文リンク
https://arxiv.org/abs/1905.05897
…