long8v / PTIR

Paper Today I Read
19 stars 0 forks source link

[89] Relational Attention: Generalizing Transformers for Graph-Structured Tasks #98

Open long8v opened 1 year ago

long8v commented 1 year ago

image

paper

TL;DR

transformer는 edge가 없는 graph인 set을 받고 이를 표현하는 모델이라고 생각할 수 있음. transformer에 edge까지 넣어보자

Previous work

image

https://arxiv.org/pdf/2207.02505.pdf

Graph Neural Networks

notation 설명.

Relational Transformer

우아..하면서 간단.. edge node concat해서 qkv projection의 x로 쓰자 image

연산 간단히 하려고 행렬 잘라서 아래와 같이 표현 image

그림으로 표현하면 이렇다. image

Edge update

edge를 모든 node, 모든 edge들에 대해서 업데이트를 하면 복잡도가 $O(n^3)$이 되니 인접한 두개의 노드, 자기 자신, 반대 방향으로 가는 Edge 이렇게 4가지에 대해서만 aggregation해서 message passing을 한다. image

image

image