munema / survey

サーベイ論文まとめ
0 stars 1 forks source link

A Survey on Explainable Artificial Intelligence (XAI): towards Medical XAI #20

Open munema opened 4 years ago

munema commented 4 years ago

Paper link : https://arxiv.org/abs/1907.07374 Author : Erico Tjoa, Cuntai Guan Conference : Arxiv 2019

概要

近年, 機械学習によって様々な困難な課題が解決された. 医療の領域で決定における責任 や透明性 (機械学習モデルによる決定の説明性)や信頼性が要求される. これにより, 機械学習モデルの決定を解釈する必要がある. 本論文では提案された手法を分類して, 医療分野の解釈可能性に同じカテゴリーを適用する. 様々な解釈性を持つ手法が提案されているが人間の解釈性を考慮して設計されていない場合が多い (Table 1(A)).

2. TYPES OF INTERPRETABILITY

様々な解釈手法を定義する.

2.1. Perceptive Interpretability

この分類は人間によって解釈可能な要素を含んでいる手法である. これだけでは, blackboxであるままなので, サブカテゴリを用いる.

2.1.1. Saliency

この分類は, 決定の貢献に関する入力の要素の重要度を振り分ける手法である (A1).

2.1.2. Signal Method

この分類は, ニューロンの刺激 (feature map)を観察することによる解釈手法である.

2.1.3. Verbal Interpretability

この分類は, 人間が自然に把握できる言葉を用いた手法である (ルールベースな論理演算子などを用いた).

2.2. Interpretability via Mathematical Structure

この分類は, 数学的な構造を用いた解釈手法である.

2.2.1. Pre-defined Model

この分類は, f(x) = ax+ bのように予め定義した数式に当てはめる手法である.

2.2.3 Sensitivity

勾配の摂動に依存した手法である.

2.3. OtherPerspectives to Interpretability

2.3.1. Data-driven Interpretability

類似したデータを用いた説明手法である.

3.2 Risk of Machine Interpretation in Medical Field

Jumping conclusion 例えば「窒息がある→死亡するリスクが低い」のような論理的な説明法は解釈性が高いが, これは窒息の患者が積極的な治療を受けたことによってリスクが軽減されたかどうかが不明になってしまう. Manipulation of explanations 猫の画像に犬を加えることにより, 誤った分類を可能にさせる. 意図的な操作で無くとも, ノイズにより誤った説明を与える可能性がある. Incomplete constraints 損失関数に与える制約によって, 解釈性が大きく変わる可能性がある. Noisy training data 人間による診断結果が誤っている場合もある.