Project Icon

informer-tourism-monthly

Informer模型优化长序列时间序列预测

Informer通过ProbSparse自注意力机制和生成式解码器在长序列时间序列预测中优化了计算和内存需求,达到O(L logL)的复杂度和内存使用。模型提升了依赖对齐能力,能够高效处理长输入序列并显著提高预测速度,在多个大数据集上性能优异,为长序列预测问题提供了解决方案。

Awesome-TimeSeries-SpatioTemporal-LM-LLM - 大型语言模型在时序和时空数据分析中的应用资源
Github基础模型大型语言模型开源项目时空数据时间序列预训练模型
该项目汇集了用于时间序列、时空数据和事件数据分析的大型语言模型及基础模型资源。内容全面涵盖了最新研究进展,包括论文、代码和数据集。涉及领域包括通用时间序列分析、交通、金融、医疗等多个应用方向,以及事件分析、时空图和视频数据等相关主题。项目为研究人员和实践者提供了一个综合性资源库,并持续更新最新成果。
chronos-t5-small - T5架构预训练时间序列模型 实现概率性多轨迹预测
Chronos-T5GithubHuggingface开源项目时间序列预测概率预测模型语言模型预训练模型
Chronos-t5-small是一个基于T5架构的预训练时间序列预测模型,参数量为4600万。该模型将时间序列转换为token序列进行训练,可生成多个未来轨迹的概率性预测。模型训练数据包括公开数据集和高斯过程生成的合成数据。它支持GPU加速和bfloat16精度,适用于多种时间序列预测场景。与原始T5模型相比,Chronos-t5-small采用更小的词汇表(4096个token),提高了计算效率。
modeltime - R语言时间序列预测框架 整合机器学习与传统方法
GithubR语言modeltime工作流开源项目时间序列预测机器学习
modeltime是R语言的时间序列预测框架,简化了预测工作流程,整合机器学习和传统分析方法。支持ARIMA、ETS、Prophet等模型,可与tidymodels生态系统集成。通过6步流程,用户可快速构建、评估和部署预测模型,适用于高性能时间序列分析。框架还包括modeltime.h2o用于AutoML、modeltime.gluonts用于深度学习,以及modeltime.ensemble用于集成预测。这些组件共同构成了一个全面的时间序列分析生态系统,为不同规模和复杂度的预测任务提供解决方案。
recurrent-memory-transformer - 记忆增强型Transformer为Hugging Face模型提升长序列处理能力
GithubHugging FaceRecurrent Memory Transformer开源项目机器学习模型自然语言处理长文本处理
Recurrent Memory Transformer (RMT)是为Hugging Face模型设计的记忆增强型循环Transformer。通过在输入序列中添加特殊记忆标记,RMT实现了高效的记忆机制,能够处理长达1M及以上的token序列。项目提供RMT实现代码、训练示例和评估工具,在BABILong等长文本基准测试中表现优异,为研究长序列处理提供了有力支持。
chronos-t5-large - 基于T5架构的大规模时间序列预测模型
Chronos-T5GithubHuggingface开源项目时间序列预测概率预测模型语言模型预训练模型
Chronos-T5-Large是一个拥有7.1亿参数的大规模时间序列预测模型。该模型基于T5架构,通过将时间序列转化为token序列进行训练,能生成概率性预测。Chronos-T5-Large在大量公开和合成时间序列数据上训练,可处理多种预测任务。研究人员和开发者可通过Python接口使用该模型,适用于需要高精度分析的时间序列场景。
longformer-large-4096 - 专为长序列处理设计的transformer模型
GithubHuggingface国际交流学习开源项目模型编程英语语言
Longformer-large-4096是一种为长序列处理设计的transformer模型。该模型通过改进的注意力机制,克服了传统transformer处理长文本的限制。它可处理长达4096个token的输入,适用于文档摘要和问答系统等长文本理解任务。Longformer-large-4096能高效捕捉长距离依赖关系,为自然语言处理提供了新的解决方案。
MEGABYTE-pytorch - 多尺度Transformer模型实现百万字节序列预测
AI模型GithubMEGABYTEPytorchTransformer开源项目深度学习
MEGABYTE-pytorch是一个基于PyTorch实现的多尺度Transformer模型,专门用于预测百万字节长度的序列。该项目具有灵活的配置选项,支持多个本地模型,并整合了Flash Attention等先进技术。MEGABYTE-pytorch通过简洁的API接口实现长序列处理、模型训练和文本生成。此外,项目提供了基于enwik8数据集的训练示例,为开发者提供了实用参考。
mlforecast - 高性能可扩展的机器学习时间序列预测框架
GithubMLForecast分布式训练开源项目时间序列预测机器学习特征工程
mlforecast是一个基于机器学习模型的时间序列预测框架,具有高效的特征工程实现和良好的可扩展性。该框架支持pandas、polars、spark等多种数据格式,兼容sklearn API,能够处理海量数据。除了支持概率预测和外生变量,mlforecast还提供分布式训练功能,适用于大规模生产环境的时间序列预测任务。框架采用熟悉的fit和predict接口,便于快速上手和集成到现有项目中。
awesome-time-series - 时间序列预测与分析的全面资源汇总
GithubTransformer图神经网络开源项目异常检测时间序列预测深度学习
本项目汇集了时间序列预测领域的最新论文、代码和相关资源。内容涵盖M4竞赛、Kaggle时间序列竞赛、学术研究、理论基础、实践工具和数据集等。为研究人员和从业者提供全面的参考资料,促进时间序列预测技术的深入研究与应用。
InceptionTime - 先进的时间序列分类深度学习模型
GithubInceptionTimeInception模块UCR/UEA数据集开源项目时间序列分类深度学习
InceptionTime是一个基于Inception模块架构的时间序列分类深度学习模型。该项目在85个UCR/UEA数据集上展现出优秀的分类性能,并提供了完整的模型实现代码、实验复现指南和详细结果。研究显示,InceptionTime在分类准确率和训练效率方面都具有显著优势,为时间序列分类研究提供了有力的基准。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号