Project Icon

informer-tourism-monthly

Informer模型优化长序列时间序列预测

Informer通过ProbSparse自注意力机制和生成式解码器在长序列时间序列预测中优化了计算和内存需求,达到O(L logL)的复杂度和内存使用。模型提升了依赖对齐能力,能够高效处理长输入序列并显著提高预测速度,在多个大数据集上性能优异,为长序列预测问题提供了解决方案。

InfiniTransformer - 非官方的PyTorch和Transformers实现
Gemma modelGithubInfiniTransformerLlama3PyTorch开源项目🤗Transformers
InfiniTransformer是一个非官方的PyTorch和Transformers实现,支持Llama3和Gemma模型。包含两种Infini注意力实现类型:全模型替换和仅替换注意力层。详细介绍了从克隆仓库、安装依赖到训练和推理的步骤,便于用户快速上手和扩展。
uni2ts - 时间序列预测Transformer模型的统一训练框架
GithubPyTorchTransformerUni2TS开源项目时间序列预测预训练模型
Uni2TS是一个基于PyTorch的开源库,专门用于时间序列Transformer的研究和应用。它提供了统一的大规模预训练解决方案,支持微调、推理和评估。该库集成了零样本预测、自定义数据集处理和全面评估功能,并提供简化的命令行界面。Uni2TS旨在推动时间序列预测领域的进展,适用于研究和实际应用场景。
LongMem - 为语言模型赋予长期记忆能力
GithubLongMem开源项目评估语言模型长期记忆预训练
LongMem项目通过创新的长期记忆机制提升了语言模型的性能。该项目实现了记忆库、检索机制和联合注意力等核心技术,使模型在内容学习任务中表现优异。项目开源了完整代码,包括环境配置、模型结构和评估方法,为研究者提供了便利的复现和探索工具。LongMem为自然语言处理领域开辟了新的研究方向。
diffusion-forcing - 创新机器学习方法结合下一步预测和全序列扩散技术
Diffusion ForcingGithub开源项目模型训练深度学习视频预测迷宫规划
Diffusion Forcing是一种结合下一步预测和全序列扩散技术的机器学习方法。该项目为视频预测、迷宫规划和时间序列分析等任务提供了框架。通过时间注意力机制,Diffusion Forcing可生成长序列预测并在复杂环境中进行规划。该方法在Minecraft和DMLab视频数据集以及迷宫规划任务中表现优异。项目包含使用说明和预训练模型,便于研究者快速上手和复现结果。
Comprehensive-Transformer-TTS - 基于非自回归 Transformer 的 TTS
GithubPyTorchTTS开源项目持续时间建模语音合成非自回归变换器
该项目采用非自回归Transformer技术,集成多种最新状态转换模型。Comprehensive-Transformer-TTS不仅提供监督与非监督持续时间建模, 也支持多种数据集和SOTA技术,如Fastformer和Long-Short Transformer,力求在文本到语音转换领域取得领先成果。
inseq - 基于Pytorch的序列生成模型解释性分析工具
GithubInseqPytorch序列生成开源项目模型解释集成渐变
Inseq是一个基于Pytorch的可定制工具包,专为序列生成模型的后验可解释性分析设计。它支持多种特性归因方法,可高效分析单例或整套数据集的各类模型,包括GPT-2。Inseq支持在Jupyter Notebook、浏览器和命令行中进行可视化,并提供多种后处理和归因映射合并功能。
bigbird-roberta-base - 高性能长序列文本处理的稀疏注意力Transformer模型
BigBirdGithubHuggingfacetransformer模型开源项目模型深度学习自然语言处理长序列处理
BigBird-RoBERTa-base是一种基于块稀疏注意力机制的Transformer模型,可处理长达4096个token的序列。该模型在Books、CC-News、Stories和Wikipedia等大规模数据集上预训练,大幅降低了计算成本。在长文档摘要和长上下文问答等任务中,BigBird-RoBERTa-base展现出优秀性能。模型支持灵活配置注意力类型,可在默认的块稀疏模式和全注意力模式间切换,为超长序列文本处理提供了高效方案。
flashinfer - 专注LLM服务的高效GPU内核库
FlashInferGPU内核GithubLLM服务开源项目注意力机制高性能计算
FlashInfer是一个面向大型语言模型(LLM)服务和推理的GPU内核库。它实现了多种注意力机制,如FlashAttention、SparseAttention和PageAttention。通过优化共享前缀批处理解码和压缩KV缓存等技术,FlashInfer提高了LLM推理效率。该项目兼容PyTorch、TVM和C++,便于集成到现有系统,适用于多种LLM应用场景。
skforecast - 高效的Python时间序列预测库
GithubPython库scikit-learnskforecast开源项目时间序列预测机器学习
skforecast是一个专门用于时间序列预测的Python库,兼容scikit-learn API的各种回归器。它提供了全面的工具集用于训练、验证和预测,支持单序列和多序列、递归和直接策略等多种预测场景。该库注重快速原型设计、可靠模型评估和生产部署,适用于各类时间序列预测任务。
CrossFormer - 融合跨尺度注意力的高效视觉Transformer
CrossFormer++Github图像分类开源项目目标检测视觉Transformer跨尺度注意力
CrossFormer++是一种创新的视觉Transformer模型,通过跨尺度注意力机制解决了不同尺度对象特征间建立关联的问题。该模型引入跨尺度嵌入层和长短距离注意力等设计,并采用渐进式分组策略和激活冷却层来平衡性能与计算效率。在图像分类、目标检测和语义分割等视觉任务中表现优异,尤其在密集预测任务中效果显著。CrossFormer++为计算机视觉领域提供了一种灵活高效的新型架构。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号