[x] 15-09-2023 — 25-09-2023 [Ознакомится с материалами по причинностным моделям применительно к GNN.]
[x] 20-09-2023 — 28-09-2023 [Подготовить слайд с кратким описанием направления работы и существующих методов]
[ ] 25-09-2023 — 27-10-2023 [Выбрать химические данные для экспериментов. Настроить код подгрузки и обработки данных.]
[ ] 27-09-2023 — 09-11-2023 [Запустить стандартные SOTA методы GNN для измерения базовых метрик качества.]
[ ] 27-09-2023 — 22-11-2023 [Разработать метод выделения признакового описания для каждого графа из выборки графов. При этом признаковое описание должно допускать возможность построения причинностной модели, учитывающей связь признаков с целевой метко.]
[ ] 29-09-2023 — 22-12-2023 [Разработать метод пересбора модели GNN с учетом результатов оценки причинностности. При этом модель GNN должна допускать такие модификации, что невозможно для GCN.]
[x] 01-12-2023 — 02-02 [Подать статью на мэйн трек KDD (пока ориентируемся на этот варианта)]
поэтому хочется метод который бы работал для сдвигов в данных но без заранее известных видов сдвигов
для этого два варианта: 1. распутывание поверхностных корреляций во время обучения (в главной обзорной статье такие методы упоминаются)
найти те самые переменные которые непосредственно являются причиной для метки в причинно-следственной модели (в обзорной упомянутой в самом начале есть некоторые методы, которые бы следует изучить + вот тут (https://arxiv.org/pdf/2206.08452.pdf) тоже с картинкой объяснено достаточно хорошо про эти переменные в причинно-следственной модели)
возможно объединить 1 и 2
примерное направление:
что если граф (или вершину в графе в зависимости от решаемой задачи) можно представить в виде вектора некоторых характеристик (возможно не заранее задать набор, а обучать в процессе как тут (http://proceedings.mlr.press/v97/ma19a/ma19a.pdf) да и много где еще)
на этих характеристиках + метке построить причинно-следственную модель (=байесовскую сеть)
и при обучении нейронки оставлять только причины либо брать все переменные, но с весами, которые тоже обучаются при обучении байесовской сети
Если говорить про causal machine learning в целом. без приложений на графах, то лучше такая статья (https://arxiv.org/pdf/2108.13624.pdf), там есть разделы в целом про распутывание корреляций (Disentangled Representation Learning), invariant learning, causal learning,
[x] 15-09-2023 — 25-09-2023 [Ознакомится с материалами по причинностным моделям применительно к GNN.]
[x] 20-09-2023 — 28-09-2023 [Подготовить слайд с кратким описанием направления работы и существующих методов]
[ ] 25-09-2023 — 27-10-2023 [Выбрать химические данные для экспериментов. Настроить код подгрузки и обработки данных.]
[ ] 27-09-2023 — 09-11-2023 [Запустить стандартные SOTA методы GNN для измерения базовых метрик качества.]
[ ] 27-09-2023 — 22-11-2023 [Разработать метод выделения признакового описания для каждого графа из выборки графов. При этом признаковое описание должно допускать возможность построения причинностной модели, учитывающей связь признаков с целевой метко.]
[ ] 29-09-2023 — 22-12-2023 [Разработать метод пересбора модели GNN с учетом результатов оценки причинностности. При этом модель GNN должна допускать такие модификации, что невозможно для GCN.]
[x] 01-12-2023 — 02-02 [Подать статью на мэйн трек KDD (пока ориентируемся на этот варианта)]
https://arxiv.org/pdf/2106.02172.pdf
Вводная статья (https://arxiv.org/pdf/2202.07987.pdf) с обзором, в ней особенно уделить внимание на "модели" и "обучение" минуя "аугментацию данных".
проблема:
примерное направление:
Если говорить про causal machine learning в целом. без приложений на графах, то лучше такая статья (https://arxiv.org/pdf/2108.13624.pdf), там есть разделы в целом про распутывание корреляций (Disentangled Representation Learning), invariant learning, causal learning,
Репозиторий:
https://github.com/anpolol/GraphExtrapolation