#Moirai
moirai-1.0-R-large - 基于Transformer的通用多变量时序预测模型
机器学习GithubMoiraiHuggingface深度学习开源项目模型时间序列预测大规模预训练
Moirai-1.0-R-large是一个基于Masked Encoder的时序预测Transformer模型,通过LOTSA数据集预训练而成。模型采用补丁嵌入和Transformer架构设计,支持多变量时序数据处理和动态协变量预测。用户可通过uni2ts库实现模型部署,拥有3.11亿参数的模型规模使其成为Moirai系列中参数量最大的版本。
moirai-1.0-R-base - 基于Transformer的通用时间序列预测模型
时间序列预测开源项目数据分析Moirai模型预训练模型机器学习模型GithubHuggingface
Moirai-1.0-R-base是一个基于掩码编码器的通用时间序列预测Transformer模型,在LOTSA数据集上预训练。该模型包含9100万参数,使用补丁嵌入和变量ID编码方法,可处理多变量时间序列数据进行预测。模型支持自定义预测长度和上下文窗口设置,通过uni2ts库实现部署。作为Moirai系列的中型版本,该模型在性能和计算效率方面达到平衡。