hiroshinagaya / SurveyPapers

自分の研究に関連ありそう,または面白そうだと感じた論文を読んでいく.
2 stars 0 forks source link

IJICAI #9

Open hiroshinagaya opened 4 years ago

hiroshinagaya commented 4 years ago

指導教員が紹介してくださった、IJICAI[2019]の時系列解析系論文のまとめ

hiroshinagaya commented 4 years ago

Jiyeon Han, Kyowoon Lee, Anh Tong and Jaesik Choiy, "Confirmatory Bayesian Online Change Point Detection in the Covariance Structure of Gaussian Processes", IJICAI, 2019.

時系列が変化点(CP)なしの場合と時刻tで変化した場合の仮説それぞれにおける尤度の差を元に変化点を求めます。変化点があると考える判断の誤差の上限を与える理論と変化点を見出すアルゴリズムをあわせて示しています。変化度の計算には、パラメータの変化点ではなく、時系列から階段状変化(@t)関数を引いた時系列におけるCovarianceと元のCovarianceの差を見ています。

hiroshinagaya commented 4 years ago

Li Zheng, Zhenpeng Li, Jian Li, Zhao Li and Jun Gao, "AddGraph: Anomaly Detection in Dynamic Graph Using Attention-based Temporal GCN", IJICAI, 2019.

グラフ構造の異常から構造的なアノマリを見出す手法。各ノードとその周辺の接続関係の潜在変数H(直前の状態と近い過去の情報を特殊なLSTMでまとめて次の状態を求めている)からグラフの部分の異常さを求めていますが、やや説明が跳んでいて再現しにくい感じです。

hiroshinagaya commented 4 years ago

Xiaosheng Li, Jessica Lin and Liang Zhao, "Linear Time Complexity Time Series Clustering with Symbolic Pattern ForestA", IJICAI, 2019.

時系列をクラスタリングする話なので、k-shapeとかと比較する対象として見ておくと良いかと思います。ほとんど、時系列を離散化(記号化)し時間窓をスライドしながらランダムに選んだパターンの存否を求めて分類木をつくり、そのアンサンブルを合成するだけみたいな。こんな方法がまだ未発表だったことに気づかされます。

hiroshinagaya commented 4 years ago

Eoin M. Kenny, Mark T. Keane, "Twin-Systems to Explain Artificial Neural Networks using Case-Based Reasoning: Comparative Tests of Feature-Weighting Methods in ANN-CBR Twins for XAI", IJICAI, 2019.

ニューラルネットワークの説明性を高める方法は多く出ていますが、これはデータ中の事例を、CBR(事例ベース推論)に使われるような説明しやすい事例のうち近いものと関連付けて説明するものです。各事例サンプルを重みではなく貢献度(重み×入力値)のベクトルで表し、k-NNを使って関連のある事例クラスタの出力を返すようです。評価方法も、評価対象のNNとCBR側の出力との"agreement"を評価する新手法を示しています。