Project Icon

moirai-1.0-R-base

基于Transformer的通用时间序列预测模型

Moirai-1.0-R-base是一个基于掩码编码器的通用时间序列预测Transformer模型,在LOTSA数据集上预训练。该模型包含9100万参数,使用补丁嵌入和变量ID编码方法,可处理多变量时间序列数据进行预测。模型支持自定义预测长度和上下文窗口设置,通过uni2ts库实现部署。作为Moirai系列的中型版本,该模型在性能和计算效率方面达到平衡。

nixtla - 精准的时间序列预测和异常检测,适用于多领域的生成式预训练模型
GithubTimeGPT开源项目异常检测时间序列零样本推理预测
TimeGPT是一款生成式预训练模型,专注于时间序列分析,支持零样本推断。该模型可应用于零售、电力、金融、物联网等多个领域,通过简洁的代码实现精准的预测与异常检测。TimeGPT提供灵活的API访问,兼容多种编程语言和平台。基于大规模数据集的训练,它在多种频率下的预测表现卓越,特别适合需要快速、精确时间序列分析的应用。
Time-series-prediction - 多功能的TensorFlow时间序列预测平台
GithubTFTSTensorFlow开源项目时间序列深度学习预测
TFTS(TensorFlow Time Series)是一个易用的时间序列预测工具包,支持TensorFlow和Keras中的经典及前沿深度学习方法。适用于预测、分类及异常检测任务。提供适应工业、研究和竞赛所需的深度学习模型,配有详尽文档和教程,帮助用户快速入门。
Corrformer - 全球气象站统一深度模型的可解释天气预报系统
CorrformerGithub天气预报开源项目时空建模机器学习深度学习
Corrformer是一种新型天气预报模型,通过多相关性机制实现了对数万个气象站的协作预报。该模型显著降低了时空建模复杂度,并能生成基于天气过程传播方向的可解释预测。在多个尺度的数据集上,Corrformer的预报性能超越了传统统计方法和最新深度学习模型,近地面预报能力可与数值方法相媲美。这项研究为气象科学引入了创新的数据驱动人工智能方法。
t5-base - 多语言自然语言处理的统一文本转换模型
GithubHuggingfaceT5模型多任务学习开源项目文本到文本转换模型自然语言处理迁移学习
T5-base是一个具有2.2亿参数的语言模型,将NLP任务统一为文本到文本格式。该模型在机器翻译、摘要、问答和分类等任务中表现优异,支持多种语言。T5-base采用创新的预训练方法,结合无监督和有监督任务,在24个NLP任务中进行了评估,为NLP研究和应用提供了强大支持。
trocr-base-stage1 - 以Transformer为基础的图像文字识别预训练模型
GithubHugging FaceHuggingfaceTrOCR光学字符识别图像Transformer开源项目文本Transformer模型
此预训练模型使用Transformer进行光学字符识别(OCR),为TrOCR模型的一部分。其图像编码器采用BEiT权重初始化,文本解码器则使用RoBERTa权重,处理图像为固定大小的16x16像素块并线性嵌入。适用于单行文本图像的OCR任务,并支持针对特定任务进行微调,兼容PyTorch实现。
mxbai-rerank-base-v1 - 跨语言重排序模型提升搜索结果相关性
GithubHuggingfacetransformers人工智能开源项目机器学习模型深度学习自然语言处理
mxbai-rerank-base-v1是一个基于transformers库开发的跨语言重排序模型。该模型支持多语言处理,可在transformers.js中使用,有助于提升搜索结果的相关性。模型采用Apache-2.0开源协议发布,适用于搜索引擎、推荐系统和问答系统等场景,能够优化排序结果。
h2o-danube3-500m-base - 500M参数的大规模语言模型,支持离线文本生成
GPTGithubH2O.aiHuggingface大语言模型开源项目模型模型架构转化器
由H2O.ai推出的h2o-danube3-500m模型,是一个大规模语言模型,采用Llama 2架构调整及500M参数设计。模型支持原生离线运行,尤其适用于手机设备,并集成Mistral分词器,拥有32,000词汇量及8,192长度的上下文生成能力。在支持transformers库的环境中,模型可在GPU设备上有效运行,并且支持量化和多GPU分片处理。重要提醒用户在使用模型生成的内容时保持审慎态度并自行承担责任。
Comprehensive-Transformer-TTS - 基于非自回归 Transformer 的 TTS
GithubPyTorchTTS开源项目持续时间建模语音合成非自回归变换器
该项目采用非自回归Transformer技术,集成多种最新状态转换模型。Comprehensive-Transformer-TTS不仅提供监督与非监督持续时间建模, 也支持多种数据集和SOTA技术,如Fastformer和Long-Short Transformer,力求在文本到语音转换领域取得领先成果。
bart-base - 用于自然语言生成和理解的序列到序列预训练模型
BARTGithubHuggingface序列到序列学习开源项目文本生成模型自然语言处理预训练模型
BART是基于transformer架构的编码器-解码器模型,结合了双向编码器和自回归解码器。模型通过文本去噪和重建预训练,在摘要、翻译等文本生成任务中表现出色,同时适用于文本分类、问答等理解任务。虽可直接用于文本填充,但BART主要设计用于在监督数据集上微调。研究者可在模型中心寻找针对特定任务优化的版本。
switch-base-128 - 探索语言模型优化与参数缩放的最新进展
GithubHuggingfaceSwitch Transformers专家开源项目模型混合专家蒙面语言建模语言模型
Switch Transformers采用专家混合(MoE)模型架构,针对掩码语言模型(MLM)任务进行训练。该模型使用稀疏多层感知器层取代传统的前馈层,提升了训练效率。在Colossal Clean Crawled Corpus上完成了高达万亿参数的预训练,表现出优于T5的微调效果,并实现了相较于T5-XXL模型的四倍加速,适合需要高效语言模型的应用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号