zhouhaoyi / Informer2020

The GitHub repository for the paper "Informer" accepted by AAAI 2021.
Apache License 2.0
5.39k stars 1.12k forks source link

我的结果也是很不好,与真实值相差太多> #458

Open zhanmen1 opened 1 year ago

zhanmen1 commented 1 year ago
          > 

验证2

验证

另一篇帖子里,作者说是embedding的问题,我有试着去设置embedding,依然没有什么变化,预测值与真实值差距很大而且预测值很小

Originally posted by @AndyRyuu in https://github.com/zhouhaoyi/Informer2020/issues/403#issuecomment-1362451046

Andy-LiuZiheng commented 1 year ago

尚未解决

IrisHerro commented 1 year ago

我也遇到了相同的问题,而且结果的数据尺度好像也有一定的问题,和原始数据的尺度不一样…而且似乎不是因为没有反归一,因为我自己的数据集输出结果有大于1的值,关于这个请问你有什么思路吗

zhanmen1 commented 1 year ago

我也遇到了相同的问题,而且结果的数据尺度好像也有一定的问题,和原始数据的尺度不一样…而且似乎不是因为没有反归一,因为我自己的数据集输出结果有大于1的值,关于这个请问你有什么思路吗

我的数据也有这种情况,目前也没解决

2825354549 commented 1 year ago

我觉得 可能是你的数据集的关系 原文要求特征之间的关联性要强,如果关联性弱,文中的ProbSparse Self-attention 起不到太好的作用,更会因为后面distill导致特征丢失严重,不如普通的LSTM 所以这个只能用来试一试自己的数据集效果 如果不是常规的数据集,效果会好一点

2825354549 commented 1 year ago

我觉得 可能是你的数据集的关系 原文要求特征之间的关联性要强,如果关联性弱,文中的ProbSparse Self-attention 起不到太好的作用,更会因为后面distill导致特征丢失严重,不如普通的LSTM 所以这个只能用来试一试自己的数据集效果 如果不是常规的数据集,效果会好一点

IrisHerro commented 1 year ago

好的,谢谢 我用的是金融数据,理论上数据关联度应该还是很高的,不过调参之后效果还是不如LSTM,应该说LSTM还是太强大了吧

---原始邮件--- 发件人: @.> 发送时间: 2023年3月31日(周五) 下午5:51 收件人: @.>; 抄送: @.**@.>; 主题: Re: [zhouhaoyi/Informer2020] 我的结果也是很不好,与真实值相差太多> (Issue #458)

我觉得 可能是你的数据集的关系 原文要求特征之间的关联性要强,如果关联性弱,文中的ProbSparse Self-attention 起不到太好的作用,更会因为后面distill导致特征丢失严重,不如普通的LSTM 所以这个只能用来试一试自己的数据集效果 如果不是常规的数据集,效果会好一点

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>

wangzijian23 commented 1 year ago

我也是同样的问题,做的是地下水和降水,拟合也是很差 image

Echollllll commented 7 months ago

我也遇到了相同的问题,而且结果的数据尺度好像也有一定的问题,和原始数据的尺度不一样…而且似乎不是因为没有反归一,因为我自己的数据集输出结果有大于1的值,关于这个请问你有什么思路吗

我的数据也有这种情况,目前也没解决

有解决吗