-
In the second paragraph of Federated Learning, I would emphasise that the gradient leakage is one example of a vulnerability. Maybe briefly also mention the others and that there might be still unknow…
-
Thanks for maintaining the list of papers on long-tailed learning!
Our work : **SURE: SUrvey REcipes for building reliable and robust deep networks**[CVPR2024] addressed long-tailed distribution in …
-
## 一言でいうと
予測の不確実性を推定する手法の提案。既存研究ではDropoutを使った不確実推定があったが、Dropoutよりもよく使われているBatch Normalizationを使い推定する。正規化に用いる平均/分散を学習データからサンプリングすることでモデル出力の分布を得る。
![image](https://user-images.githubusercontent.co…
-
## 一言でいうと
今後より人間に近しいタスクを行っていくには、推論方法をより一般化したものにしていく必要があるという提言。CNNは局所的な情報から、RNNは系列的な情報からしか推論できないため、グラフ型が適しているとしている。そこでグラフネットワークを新しい構造単位として使うための定義を行っている。
### 論文リンク
https://arxiv.org/abs/1806.01…
-
https://arxiv.org/pdf/1607.03516.pdf
In this paper, we propose a novel unsupervised domain adaptation algorithm based on deep learning for visual object recognition. Specifically, we design a new m…
leo-p updated
7 years ago
-
## 一言でいうと
入力画像に細工を施すことで、誤識別を誘発できるという検証。ネットワークの構成がわかっているホワイトボックス型と不明なブラックボックス型があるが、本研究では後者の手法で検証。ランダムに選択された画像の各所から最も識別に影響を与える箇所を探索する形(greedy local-search)で実装を行い、1~3%程度のピクセルを操作するだけでエラーレートを跳ね上げられることを確…
-
## 一言でいうと
数ピクセルの編集で画像分類のモデルをだますという研究。1ピクセルでも70%程度の確率で誤識別させることができ、さらに20%程度で特定のクラスに識別させることも可能(5ピクセルならもっと上がる)。元の画像に対するピクセルの変動量は、GE(差分進化法)により最小の値を求めている。
![image](https://user-images.githubuserconten…
-
## 一言でいうと
DNNの判断を理解するための研究のまとめ。ネットワークが反応する入力を見つける方法(Activation Maximizationなど)、判断根拠となった特徴を入力にマップする方法(Relevance Propagationなど)などを紹介、説明力の比較方法についても記載している
### 論文リンク
https://arxiv.org/abs/1706.079…
-
Training a deep model usually requires a large GPU memory, which may not be feasible in clinical applications. Therefore, the aim of this issue is to concentrate on possible approaches for reducing me…
-
- https://arxiv.org/abs/2105.04857
- 2021
我々は、学習した深い特徴表現に疎な線形モデルを当てはめることで、よりデバッグしやすいニューラルネットワークを構築できることを示す。
これらのネットワークは高い精度を維持しつつ、人間による解釈にも適していることを、数値実験と人体実験によって定量的に示します。
さらに、結果として得られるスパースな説明が、視…
e4exp updated
3 years ago