Closed oushilin closed 1 year ago
我注意到作者论文中使用的是transformer的encoder和decoder 如果我想要将PatchTST和informer结合,将多头注意力改为ProbAttention 请问我应该修改代码中的哪一部分呢?
你好!你可以修改:https://github.com/yuqinie98/PatchTST/blob/main/PatchTST_supervised/layers/PatchTST_backbone.py#L201。 我们这里用了最原始的transformer, 你可以改成任何其他的former。我们的model有encoder和heads, 没有 transformer decoder的部分。
我注意到作者论文中使用的是transformer的encoder和decoder 如果我想要将PatchTST和informer结合,将多头注意力改为ProbAttention 请问我应该修改代码中的哪一部分呢?