Closed jasperzhong closed 1 year ago
看了这篇paper,对AI圈真的是😅😅😅
专业打假之前SOTA,发现GAT就能超过之前很多papers的models.
首先打假了 HAN #328 GTN, RSHN, HetGNN #338 , MAGNN #340 ,发现他们代码都有问题,要么用一个sampled graph而不是完整的graph(故意?)让GAT更差,要么就是连基本的ML知识都匮乏,val都不分,或者有data leakage问题.
原形毕露后:
然后他们做了一个benchmark,有11个数据集
最后提出了SimpleHGN,在GAT的基础上改进.
有一个edge-type embedding,和node embedding拼接起来来计算attention weight.
residual connection. 除了node embedding可以residual,还做了attention weight的residual,这个第一次见.
除了第一个,后面两个说实话有点tricky.
实验: 从结果上看. HGT #336 是之前工作里面效果最好的,GAT也算一个很强的baseline. SimpleHGN则成了新的SOTA.
文末的一些讨论也很有趣:
这个sampling method跟普通的GAT甚至是一模一样.
不过我觉得,HAN之所以只考一个node type的,可能是因为其他node type没有feature.
https://arxiv.org/pdf/2112.14936.pdf