mei28 / TSUNDOKU

読んだ論文をまとめていく
1 stars 0 forks source link

Are Explanations Helpful? A Comparative Study of the Effects of Explanations in AI-Assisted Decision-Making #86

Open mei28 opened 1 year ago

mei28 commented 1 year ago

id: "are-explanations-helpful-a-comparative-study-of-the-effects-of-explanations-in-ai-assisted-decision-making" aliases:

Are Explanations Helpful? A Comparative Study of the Effects of Explanations in AI-Assisted Decision-Making

URL

https://dl.acm.org/doi/10.1145/3397481.3450650


助言における説明はどういう効果があるか?


TITLE

Are Explanations Helpful? A Comparative Study of the Effects of Explanations in AI-Assisted Decision-Making

一言で言うと

助言における説明はどういう効果があるか?

論文リンク

著者/所属機関

投稿日付(yyyy/MM/dd)

IUI2021

先行研究と比べてどこがすごい?

助言において説明に用いる手法は人間の認知にどのような影響を与えるかを調査。

人間が機械の説明に何を望んでいるかを3つに分けた

  1. Understanding: Explanation of an AI should improve peple's understanding of it.
  2. Uncertainty awreness: Explanations of an AI should help people recognize the uncertainty underlying an AI prediction and nudge people to rely on the model more on high confidence predictions when the model's confidence is calibrated.
  3. Trust calibration: Explanations of an AI should empower people predictions when the model's confidence is calibrated.

技術・手法のキモはどこ?

どうやって有効だと検証した?

compassデータセットと,森林をどれくらい覆うかのタスクを用意

AIの説明として,a)特徴量重要度, b) 特徴量貢献度, c) 近傍サンプル, d) 反実仮想のサンプルの4パターンを用いる

コメント

対象タスクにどれくらい知識を持っているかによって求められるものが異なる。

次はなに読む?

ドメイン知識をもっているタスクでは

人々が専門知識を持たないタスクでは,望ましい特性がいずれも満たさないことが示された.

人間の専門知識が高いタスクでは,特徴量重要度の説明が,AIの説明よりも好まれることが示された.

反実仮想のような説明では,信頼は改善しないことがわかった.

人々がドメイン知識を持たないタスクでは,4つのAIの説明のどれもが3つの望みを満たさないことがわかった.

人々がドメイン知識を持つタスク(再犯リスクの測定)では,特徴量寄与率が一番好まれていることがわかった.

望み:

  1. Understanding (理解)
  2. Uncertainty Awareness (不確実性の認識)
  3. Trust Caliblation (信頼度)

さまざまなXAI手法が人間の意思決定を支援する際に,専門知識が乏しいタスクに対して有効でないことが明らかになったので,そこについて議論する.

  1. 専門知識がないときに,説明に含まれる情報はむしろ精神的に消費するため有効ではない.説明を理解するために処理能力が低下するのではないのか?
  2. 専門知識があるときは,自分の知識と説明を比較して考えることができるが,知識がないとこの比較ができない.

このことから,説明を付与する際は,人間がもっている知識に基づいて良い説明方法を提案する方がいい.また,ユーザの目的にあわした説明方法を提供する必要もある.モデルに対する理解度を増やすのが目的なのか,ユーザの意思決定を補強するのが目的なのかでどういうふうに提供するかが変わることがかのう.

モデルによる説明の効果は、人々が様々なレベルの専門知識を持つタスクにおいて劇的に異なる。特筆すべきは、人々が精通していない意思決定タスクでは、確立されたAIによる説明のほとんどは、3つの望ましい条件のいずれも満たさないということである。 特徴量重要度の説明は,AIモデルに対する客観的理解を増加させ,特徴量重要度はAIモデルに対する主観的理解を増加させる