Closed sunxiaoyao-git closed 4 days ago
作者你好!感谢你写了这么完整的TimeXer的代码!我看完后有一个问题想向你请教一下:TimeXerEncoderLayer中,Self attention得到的X1是不是应该取variate embedding部分去做cross attention?我看你的代码里面没有拆分
我是按照我对这个图的理解去做的,不一定对,仅供参考。你说的拆分是个什么意思?没get到啊。。
x1包含了variate embedding和普通的embedding?
确实有这样的问题,原论文似乎需要拆分序列
静候原论文作者发code了
作者你好!感谢你写了这么完整的TimeXer的代码!我看完后有一个问题想向你请教一下:TimeXerEncoderLayer中,Self attention得到的X1是不是应该取variate embedding部分去做cross attention?我看你的代码里面没有拆分