KimMeen / Time-LLM

[ICLR 2024] Official implementation of " 🦙 Time-LLM: Time Series Forecasting by Reprogramming Large Language Models"
https://arxiv.org/abs/2310.01728
Apache License 2.0
1.46k stars 252 forks source link

默认不启用Prompt-as-Prefix方法的 Dataset Context 效果会更好? #134

Open Beryl402 opened 3 months ago

Beryl402 commented 3 months ago

您好,关于'--prompt_domain'参数的配置我有如下疑问: 在参数的默认配置中有:parser.add_argument('--prompt_domain', type=int, default=0) 在主模型类中对prompt_domain的调用是: if configs.prompt_domain: self.description = configs.content else: self.description = 'The Electricity Transformer Temperature (ETT) is a crucial indicator in the electric power long-term deployment.' 所以默认情况下是使用'The Electricity Transformer Temperature (ETT) is a crucial indicator in the electric power long-term deployment.'作为 Dataset description 吗?我不理解这样的设置。 而且我将--prompt_domain设为1,且定义--content参数配置之后,发现在有些数据集上的预测精度相比于默认设置的会下降。