Project Icon

Efficient-Computing

华为诺亚方舟实验室开发的AI模型优化技术集合

Efficient-Computing项目旨在提高AI模型的计算效率和性能。这个由华为诺亚方舟实验室开发的高效计算方法集合包含多个子项目,涵盖了模型压缩、二值神经网络、知识蒸馏、网络剪枝、模型量化、自监督学习、训练加速、目标检测和低层视觉等领域的技术。该项目为AI研究和开发提供了多样化的工具和资源。

AI-Optimizer - 涵盖从无模型到基于模型,从单智能体到多智能体的多种算法的多功能深度强化学习平台
AI-OptimizerGithub多智能体强化学习开源项目深度强化学习离线强化学习自监督学习
AI-Optimizer是一款多功能深度强化学习平台,涵盖从无模型到基于模型,从单智能体到多智能体的多种算法。其分布式训练框架高效便捷,支持多智能体强化学习、离线强化学习、迁移和多任务强化学习、自监督表示学习等,解决维度诅咒、非平稳性和探索-利用平衡等难题,广泛应用于无人机、围棋、扑克、机器人控制和自动驾驶等领域。
sparsezoo - 高效稀疏神经网络模型库
GithubNeuralmagicSparseZoo开源项目模型库深度学习稀疏化模型
SparseZoo是一个不断扩展的神经网络模型库,包含高度稀疏和稀疏量化模型,以及相应的稀疏化配方。它简化并加速深度学习模型的开发,帮助实现高效推理。用户可以通过API或云端访问这些模型及其配方,并进行迁移学习或配方迁移。SparseZoo支持多种稀疏化算法和不同推理性能的模型,并提供全面的文档和社区支持。
Efficient-LLMs-Survey - 大语言模型效率优化技术综述
Github大语言模型开源项目模型压缩量化高效推理高效训练
本项目系统性地综述了大语言模型效率优化研究,包括模型压缩、高效预训练、微调和推理等方面。从模型、数据和框架三个维度对相关技术进行分类,全面梳理了该领域的最新进展,为研究人员和从业者提供了有价值的参考资料。
compute-engine - 优化极度量化神经网络推理的高性能引擎
GithubLarq Compute EngineTensorFlow Lite二值化神经网络开源项目神经网络移动平台
Larq Compute Engine是专为极度量化神经网络设计的推理引擎。它支持多种移动平台,提供优化的TensorFlow Lite自定义运算符。通过平铺、矢量化和多线程并行化技术,该引擎提高了缓存命中率、计算吞吐量和多核CPU性能。它与Larq和TensorFlow集成,实现从训练到部署的流畅过程,并兼容Larq Zoo的预训练BNN模型。
low-bit-optimizers - 4位优化器技术减少内存占用 提升大规模模型训练能力
4位优化器AdamWGithub内存效率开源项目神经网络训练量化
Low-bit Optimizers项目实现了一种4位优化器技术,可将优化器状态从32位压缩至4位,有效降低神经网络训练的内存使用。通过分析一阶和二阶动量,该项目提出了改进的量化方法,克服了现有技术的限制。在多项基准测试中,4位优化器实现了与全精度版本相当的准确率,同时提高了内存效率,为大规模模型训练开辟了新途径。
deep-learning-containers - 高效优化的TensorFlow、PyTorch与MXNet深度学习环境
AWS Deep Learning ContainersAmazon SageMakerGithubMXNetPyTorchTensorFlow开源项目
AWS Deep Learning Containers提供预配置的Docker镜像,支持TensorFlow、PyTorch和MXNet的模型训练与服务。集成了Nvidia CUDA和Intel MKL库,优化了GPU和CPU实例性能。这些容器已在Amazon SageMaker、EC2、ECS和EKS上进行了测试和验证,确保广泛应用和稳定性能。了解更多关于兼容镜像的信息,助力高效开发与部署AI模型。
zeta - 通过模块化组件提升AI模型开发速度
GithubZeta人工智能模型开源项目模块化神经网络高性能
Zeta项目提供模块化、高性能和可扩展的构建块,使AI模型开发速度提高80%。该项目的功能模块包括Flash Attention、SwiGLU激活函数和RelativePositionBias,这些组件大幅提升了模型的效率和性能。Zeta专注于可用性、模块化和性能,已被广泛应用于数百个模型中。用户可以通过简单的安装步骤,快速开始模型的原型设计、训练和优化。
Phi-3-mini-4k-instruct-bnb-4bit - 通过Unsloth工具提升深度学习模型微调速度与内存效率
GithubGoogle ColabHuggingfaceUnslothtransformers开源项目机器学习模型模型微调
项目通过提供免费、易于使用的Google Colab笔记本,便于在微调Phi-3.5、Llama 3.1、Mistral等深度学习模型时实现更高效的速度与内存管理,内存使用减少达74%。用户只需添加数据集并执行所有代码,便可获得加速至最高3.9倍的微调模型,支持导出多种格式或上传至Hugging Face平台。Colab快捷方式有效简化模型微调过程,适用于文本生成和对话模板。
mistral-7b-bnb-4bit - 更高效的模型微调与内存优化技术
GithubHuggingfaceMistral 7bUnsloth内存优化开源项目快速微调模型量化模型
Unsloth技术助力Mistral 7b在内存减少70%的同时实现5倍微调速度提升。项目提供多个适合初学者的Google Colab笔记,只需添加数据集并运行,便可生成更快的微调模型,支持导出到GGUF、vLLM或上传Hugging Face。此方案有效优化了Gemma 7b、Mistral 7b、Llama-2 7b等模型的性能和内存使用,提升模型微调效率。
FlagAI - 高效易用的大规模AI模型开发工具
FlagAIGithub中文任务多模态大规模模型并行训练开源项目
FlagAI是一款高效易用的大规模AI模型开发工具。它支持Aquila、AltCLIP、GLM等30多种主流模型的快速部署和微调,特别擅长中文自然语言处理任务。FlagAI可用于文本分类、信息抽取、问答、摘要生成等多种应用场景,并提供便捷的少样本学习工具。此外,FlagAI支持简洁的并行训练实现,有助于提高开发效率。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号