Project Icon

iTransformer

用于多变量时间序列预测的iTransformer模型

iTransformer是一种用于多变量时间序列预测的开源模型,无需修改任何Transformer模块。它在处理大规模数据时表现出色,具备显著的性能提升和强大的泛化能力。iTransformer已在多种基准测试中表现优异,支持静态协变量和概率发射头。用户可通过pip安装,并使用项目提供的详细训练和评估脚本。更多信息请参阅官方论文。

recurrent-memory-transformer-pytorch - Recurrent Memory Transformer的PyTorch实现助力超长序列处理
GithubPyTorchRecurrent Memory Transformer人工智能开源项目深度学习自然语言处理
Recurrent Memory Transformer的PyTorch实现项目致力于解决超长序列处理问题。该模型通过创新的记忆机制和高效注意力机制,可处理长达百万token的序列。项目提供简便的安装使用方法,支持XL记忆和记忆回放反向传播等先进功能。这一实现在长序列处理、因果推理和强化学习等领域展现出优异性能,为AI研究和应用开发提供了实用工具。
pytorch-forecasting - 前沿的时间序列预测工具包,提供灵活的高层API
GithubPyTorch ForecastingPyTorch Lightning开源项目时间序列预测深度学习神经网络
PyTorch Forecasting 是一个基于 PyTorch 的时间序列预测包,适用于实际应用和研究。它支持多种神经网络架构及自动日志记录,利用 PyTorch Lightning 实现多 GPU/CPU 的扩展训练,并内置模型解释功能。关键特性包括时间序列数据集类、基本模型类、增强的神经网络架构、多视角时间序列指标和超参数优化。安装简便,支持 pip 和 conda,文档详尽,并包含模型比较和使用案例。
mlforecast - 高性能可扩展的机器学习时间序列预测框架
GithubMLForecast分布式训练开源项目时间序列预测机器学习特征工程
mlforecast是一个基于机器学习模型的时间序列预测框架,具有高效的特征工程实现和良好的可扩展性。该框架支持pandas、polars、spark等多种数据格式,兼容sklearn API,能够处理海量数据。除了支持概率预测和外生变量,mlforecast还提供分布式训练功能,适用于大规模生产环境的时间序列预测任务。框架采用熟悉的fit和predict接口,便于快速上手和集成到现有项目中。
pytorch-transformer - 基于PyTorch的Transformer模型实现与Attention机制全解析
GithubYouTube视频pytorch-transformer实现开源项目步骤注意力机制
该项目实现了基于PyTorch的Transformer模型,通过详细的步骤和代码讲解,辅以‘Attention is all you need’论文的实现和YouTube视频教程,帮助用户掌握并应用Transformer模型。适合从事深度学习、自然语言处理的开发者和研究者。
ktransformers - 体验前沿LLM推理优化的灵活框架
GPU加速GithubKTransformersLLM推理优化大型语言模型开源项目深度学习框架
KTransformers是一个灵活的Python框架,通过高级内核优化和并行策略增强Transformers性能。框架支持单行代码注入优化模块,提供Transformers兼容接口、OpenAI和Ollama标准RESTful API及简化的ChatGPT风格Web UI。专注本地部署和异构计算优化,KTransformers集成Llamafile和Marlin内核,为LLM推理优化实验提供灵活平台。
sentence-transformers - 多语言文本和图像嵌入向量生成框架
GithubSentence Transformers向量表示开源项目深度学习自然语言处理预训练模型
sentence-transformers是一个基于transformer网络的框架,用于生成句子、段落和图像的向量表示。该项目提供了多语言预训练模型,支持自定义训练,适用于语义搜索、相似度计算、聚类等场景。这个开源工具在自然语言处理和计算机视觉任务中表现出色,为研究人员和开发者提供了便捷的嵌入向量生成方案。
ctransformers - Python接口的高效C/C++ Transformer模型
CTransformersGGMLGithubLangChainPythonTransformer模型开源项目
CTransformers提供Python接口,通过GGML库高效加载和运行C/C++实现的Transformer模型。支持多种模型类型,如GPT-2、GPT-J、LLaMA等,并可与Hugging Face和LangChain集成。提供CUDA、ROCm和Metal兼容的GPU加速选项,适合高性能自然语言处理任务。
neuralforecast - 先进的神经网络时间序列预测模型库
GithubNeuralForecast开源项目时间序列机器学习深度学习预测模型
NeuralForecast 提供 30 多种先进的神经网络模型,提升时间序列预测的准确性和效率。支持外生变量和静态协变量,并具备自动超参数优化和可解释性方法。通过 sklearn 语法 `.fit` 和 `.predict` 实现快速训练和预测,包含 NBEATSx 和 NHITS 等最新实现,并与 Ray 和 Optuna 集成,适用于多种应用场景。
Auto_TS - 自动构建和选择多种时间序列模型的高效工具
Auto_TSGithubProphet开源项目时间序列模型自动化机器学习预测
Auto_TS是一个时间序列自动建模工具,支持ARIMA、SARIMAX、VAR、分解模型和机器学习模型等多种技术。它能自动构建和选择最佳模型,适用于不同频率的数据,并提供灵活的参数设置。Auto_TS支持交叉验证和预测功能,简化了建模过程,提高了效率。该工具适合数据分析人员使用,可通过简单的代码实现复杂的时间序列建模任务。
En-transformer - 融合等变图神经网络与Transformer的创新架构
E(n)-Equivariant TransformerGithub坐标变换开源项目注意力机制神经网络蛋白质设计
En-transformer是一个创新的开源项目,结合了E(n)等变图神经网络与Transformer架构。支持原子和键类型嵌入,处理稀疏邻居,传递连续边特征。已应用于抗体CDR环设计,并可用于蛋白质骨架坐标去噪等分子建模任务。项目提供简便的安装和使用方法,适合研究人员和开发者探索。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号