#Moirai

moirai-1.0-R-small - Moirai 开源预训练时间序列预测模型
TransformerMoirai时间序列预测Huggingface模型机器学习Github预训练模型开源项目
Moirai-1.0-R-small是一个开源的预训练时间序列预测模型。它基于掩码编码器架构,在LOTSA数据集上训练,可处理多变量时间序列。该模型使用补丁嵌入和混合分布输出等技术,提供高精度预测。通过uni2ts库,研究人员和开发者可以便捷地将Moirai应用于各类时间序列预测任务。
moirai-1.0-R-large - 基于Transformer的通用多变量时序预测模型
机器学习GithubMoiraiHuggingface深度学习开源项目模型时间序列预测大规模预训练
Moirai-1.0-R-large是一个基于Masked Encoder的时序预测Transformer模型,通过LOTSA数据集预训练而成。模型采用补丁嵌入和Transformer架构设计,支持多变量时序数据处理和动态协变量预测。用户可通过uni2ts库实现模型部署,拥有3.11亿参数的模型规模使其成为Moirai系列中参数量最大的版本。
moirai-1.0-R-base - 基于Transformer的通用时间序列预测模型
时间序列预测开源项目数据分析Moirai模型预训练模型机器学习模型GithubHuggingface
Moirai-1.0-R-base是一个基于掩码编码器的通用时间序列预测Transformer模型,在LOTSA数据集上预训练。该模型包含9100万参数,使用补丁嵌入和变量ID编码方法,可处理多变量时间序列数据进行预测。模型支持自定义预测长度和上下文窗口设置,通过uni2ts库实现部署。作为Moirai系列的中型版本,该模型在性能和计算效率方面达到平衡。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号