热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#稀疏Transformer
informer-tourism-monthly - Informer模型优化长序列时间序列预测
概率注意力机制
长序列时间序列预测
开源项目
Informer
模型
Huggingface
时间复杂度
稀疏Transformer
Github
Informer通过ProbSparse自注意力机制和生成式解码器在长序列时间序列预测中优化了计算和内存需求,达到O(L logL)的复杂度和内存使用。模型提升了依赖对齐能力,能够高效处理长输入序列并显著提高预测速度,在多个大数据集上性能优异,为长序列预测问题提供了解决方案。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号