problem : message passing 접근론들(MPNN)은 NLP의 long-term dependency와 비슷한 문제인 over-smoothing, over-squashing 문제가 있음. transformer를 graph에 바로 넣으면 global attention을 하기에 node 들이 많아질 경우 연산량이 quadratic.
idea : MPNN + Transformer, 기존에 있었던 Positional Embedding과 Structural Embedding을 정리하고 각각이 MPNN에 얼마나 영향을 미치는지 봄.
paper
TL;DR
Details
Related work
first fully transformer graph netowrk https://arxiv.org/pdf/2012.09699.pdf
Positional Encoding(PE)
Structural Encoding(SE)
graph나 subgraph의 구조를 임베딩해서 GNN의 표현력과 일반화를 늘리려는 목표
GPS Layer: an MPNN + Transformer Hybrid
Result
Ablation