munema / survey

サーベイ論文まとめ
0 stars 1 forks source link

CXPlain: Causal Explanations for Model Interpretation under Uncertainty #13

Open munema opened 4 years ago

munema commented 4 years ago

Paper link : https://papers.nips.cc/paper/9211-cxplain-causal-explanations-for-model-interpretation-under-uncertainty Author : Schwab, Patrick and Karlen, Walter Conference : NeurIPS 2019 Source code : https://github.com/d909b/cxplain

概要

機械学習モデルに関してPost-hocな説明法を与える手法を提案する. 任意の学習モデルに対して, 正確かつ高速にある予測に対する特徴の重要性を推定することは, 非常に困難な課題となっている. また, 重要度の不確実性に関して説明する手法は少ない. よって本論文では, 任意の学習モデルに適用できる特徴の重要度を推定し推定された特徴の不確実性を計算する手法 CXPlainを提案する. 提案手法と既存手法の差異を以下の表にまとめる. さらに, 既存の説明法よりもCXPlainがより正確かつ高速に実行できることを実験的に示す.

スクリーンショット 2020-01-22 22 19 35

貢献

3. Methodology

CXPlainは, Figure 1のように入力が与えられた場合に重要度 (を出力する説明モデルを別に学習する. 説明モデルを訓練するために Causal objective functionを利用する.

スクリーンショット 2020-01-22 23 14 10

誤差を, データXに対してi番目のピクセルをマスクした場合の誤差の変化をとして, i番目のビクセルの重要度を以下のように定義する

スクリーンショット 2020-01-22 23 40 40

ただし, 高次元な画像データに対しては, 単一のピクセルではなく複数のピクセルを1つのグループとして考えることで, pの数を縮小することができる. これより説明モデルは以下の教師あり学習の最適化と考えることができる. ここでΩを (Target)とする.

スクリーンショット 2020-01-22 23 47 23

評価実験

Figure 4 左図は提案手法と既存手法を用いてMNISTデータセットで8と3を分類するために重要な特徴 (上位10%)を可視化したものである. つまり, 8にその重要度をマスクした場合に3に近づくほど, 正確な予測である. ここから提案手法が最も3に近づいていることがわかる. Figure 4 右図は提案手法と既存手法を用いてImageNetでゴリラと馬を分類するために重要な特徴 (上位30%)を可視化したものである. 提案手法が最もゴリラのオブジェクトに重要度が高くなっていることがわかる.

スクリーンショット 2020-01-22 22 43 30

次に, Figure 6,7は提案手法と既存手法の実行速度の比較である. MNISTとImageNetにおいて, 提案手法は最も重要度を算出する実行速度が高速であることがわかる.

スクリーンショット 2020-01-22 22 46 16

6. Conclusion

CXPlainは、説明モデルをトレーニングすることで, 予測モデルの出力に対して重要な特徴を学習する. さらにブートストラップリサンプリングと組み合わせることで特徴の重要性スコアの不確実性の推定値を取得することができる. CXPlainは評価実験において, 重要性を推定する際にはるかに正確で高速であることを実験的に示した. 特徴の重要性とその不確実性の推定値を生成する因果的説明モデルによってユーザーは機械学習モデルをより理解できるようになると同時に, 説明が正確でないと期待される場合に知ることができる.