zhangyichent / TimeXer

Other
3 stars 2 forks source link

Self attention的结果如何输入到cross attention #1

Closed sunxiaoyao-git closed 4 days ago

sunxiaoyao-git commented 1 month ago

作者你好!感谢你写了这么完整的TimeXer的代码!我看完后有一个问题想向你请教一下:TimeXerEncoderLayer中,Self attention得到的X1是不是应该取variate embedding部分去做cross attention?我看你的代码里面没有拆分 image

zhangyichent commented 3 weeks ago

我是按照我对这个图的理解去做的,不一定对,仅供参考。你说的拆分是个什么意思?没get到啊。。 1724210233(1)

sunxiaoyao-git commented 3 weeks ago

x1包含了variate embedding和普通的embedding?

niyasama commented 5 days ago

确实有这样的问题,原论文似乎需要拆分序列

sunxiaoyao-git commented 4 days ago

静候原论文作者发code了