Informer2020:AAAI 2021接受论文“ Informer”的GitHub存储库

时间:2021-03-10 17:54:27
【文件属性】:
文件名称:Informer2020:AAAI 2021接受论文“ Informer”的GitHub存储库
文件大小:847KB
文件格式:ZIP
更新时间:2021-03-10 17:54:27
deep-learning time-series pytorch forecasting self-attention 告密者:用于长序列时间序列预测的超越高效变压器(AAAI'21最佳论文) 这是以下文章中Informer的原始Pytorch实现: 。 特别感谢 Jieqi Peng @ 建立此存储库。 :triangular_flag: 新闻(2021年2月22日):我们提供了供友好使用。 :triangular_flag: 新闻(2021年2月8日):我们的线人论文被授予! 我们将继续进行这方面的研究,并对此仓库进行更新。 如果您发现我们的工作对您有帮助,请加注该回购并引用我们的论文。 图1. Informer的体系结构。 稀疏注意 自我注意分数形成一个长尾分布,其中“活动”查询位于“头”分数中,而“懒惰”查询位于“尾”区域中。 我们设计了ProbSparse Attention以选择“活动”查询而不是“惰性”查询。 带有Top-u查询的ProbSparse Attention通过概率分布形成了一个稀疏的Transformer。 Why not us
【文件预览】:
Informer2020-main
----utils()
--------timefeatures.py(3KB)
--------masking.py(851B)
--------__init__.py(0B)
--------metrics.py(826B)
--------tools.py(2KB)
----models()
--------embed.py(4KB)
--------model.py(7KB)
--------__init__.py(0B)
--------encoder.py(3KB)
--------attn.py(6KB)
--------decoder.py(2KB)
----img()
--------informer.png(74KB)
--------probsparse_intro.png(339KB)
--------data.png(10KB)
--------result_univariate.png(239KB)
--------result_multivariate.png(186KB)
----requirements.txt(91B)
----LICENSE(11KB)
----exp()
--------exp_informer.py(9KB)
--------__init__.py(0B)
--------exp_basic.py(775B)
----README.md(6KB)
----main_informer.py(5KB)
----data()
--------__init__.py(1B)
--------data_loader.py(10KB)

网友评论