小不点搜索 登录

Informer:超越Transformer的长时间序列预测模型

收藏  举报   
Informer,它具有三个显著的特点: 1)ProSparse Self-Attention:在时间复杂度和内存使用率上达到了,在序列的依赖对齐上具有相当的性能。 2)Self-attention:提取通过将级联层输入减半来突出控制注意,并有效地处理超长的输入序列。 3)生成式decoder:尽管概念简单,对长时间序列进行正向预测,而不是一步一步预测,大大提高了长时预测的速度。 在四个大规模数据集上的大量实验表明,Informer的性能明显优于现有的方法,为LSTF问题提供了一种新的解决方案。 Informer:超越Transformer的长时间序列预测模型
我来说两句