Project Icon

low-bit-optimizers

4位优化器技术减少内存占用 提升大规模模型训练能力

Low-bit Optimizers项目实现了一种4位优化器技术,可将优化器状态从32位压缩至4位,有效降低神经网络训练的内存使用。通过分析一阶和二阶动量,该项目提出了改进的量化方法,克服了现有技术的限制。在多项基准测试中,4位优化器实现了与全精度版本相当的准确率,同时提高了内存效率,为大规模模型训练开辟了新途径。

T-MAC - 优化低比特量化LLM推理的CPU加速框架
CPU加速GithubLLM推理T-MAC低比特量化开源项目矩阵乘法
T-MAC是一个创新的内核库,采用查找表技术实现混合精度矩阵乘法,无需反量化即可加速CPU上的低比特LLM推理。该框架支持多种低比特模型,包括GPTQ/gguf的W4A16、BitDistiller/EfficientQAT的W2A16和BitNet的W1(.58)A8。T-MAC在多种设备上展现出显著性能提升,例如在Surface Laptop 7上,单核处理速度可达20 tokens/s,四核可达48 tokens/s,比llama.cpp快4~5倍。
auto-round - 针对大语言模型的高效量化算法
AutoRoundGithubLLM推理低位推理开源项目权重量化量化算法
AutoRound是一种针对大语言模型(LLM)的高效量化算法。通过符号梯度下降优化权重舍入和范围,仅需200步迭代即可达到业界领先水平,且不增加推理开销。该算法支持OPT、BLOOM、GPT-J等多种模型,提供混合精度量化、激活量化等实验功能,并兼容Intel Gaudi2硬件。AutoRound提供简洁的Python接口,方便用户进行模型量化和推理。
GaLore - 内存高效训练策略 全参数学习与低秩梯度投影
GaLoreGithub低秩训练内存效率大语言模型开源项目梯度投影
GaLore是一种内存高效的低秩训练策略,实现全参数学习的同时比常见低秩适应方法更节省内存。作为梯度投影方法,GaLore可通过两行代码轻松集成到现有优化器中。这一策略不仅优化内存使用,还保持训练准确性,为大规模语言模型训练提供新解决方案。项目目前处于预发布阶段,计划未来支持多GPU训练和内存高效的低秩梯度累积等功能。
AI-Optimizer - 涵盖从无模型到基于模型,从单智能体到多智能体的多种算法的多功能深度强化学习平台
AI-OptimizerGithub多智能体强化学习开源项目深度强化学习离线强化学习自监督学习
AI-Optimizer是一款多功能深度强化学习平台,涵盖从无模型到基于模型,从单智能体到多智能体的多种算法。其分布式训练框架高效便捷,支持多智能体强化学习、离线强化学习、迁移和多任务强化学习、自监督表示学习等,解决维度诅咒、非平稳性和探索-利用平衡等难题,广泛应用于无人机、围棋、扑克、机器人控制和自动驾驶等领域。
amc - 自动化模型压缩技术提升移动设备AI性能
AutoMLGithubImageNetMobileNet剪枝开源项目模型压缩
AMC (AutoML for Model Compression) 是一种创新的自动化模型压缩方法,专为优化移动设备上的深度学习模型而设计。该方法通过自动搜索剪枝策略、导出压缩权重和微调,成功将MobileNet等模型的计算量减少50%,同时维持或提升准确率。AMC不仅适用于MobileNet-V1和V2,还提供PyTorch和TensorFlow格式的压缩模型,为移动设备上的高效AI应用提供了新的可能性。
Meta-Llama-3.1-70B-Instruct-bnb-4bit - 量化调优技术显著提升性能,减少资源消耗
GithubHuggingfaceLlama 3.1Unsloth免费教程开源项目性能优化模型模型微调
Unsloth工具实现对Llama 3.1等模型的量化,显著减少内存使用,提升运行速度至原来的2-5倍。提供适合初学者的Google Colab免费笔记本,简单加载数据集即可运行得到优化模型,可导出为GGUF、vLLM等格式或上传至Hugging Face。支持多种模型,如Llama-2、Gemma、Mistral,满足高效调优需求。
mistral-7b-instruct-v0.2-bnb-4bit - 使用Unsloth技术优化模型微调,显著提升性能并减少内存占用
GithubHuggingfaceMistralUnsloth开源项目性能优化数据集机器学习模型
该项目介绍了一种运用Unsloth技术的模型微调方法,使Mistral、Gemma、Llama等模型实现2-5倍的速度提升,并减少70%的内存使用。用户可通过在Google Colab或Kaggle运行免费笔记本,轻松获得经过优化的模型。工具初学者友好,支持多种微调和导出格式,如GGUF、vLLM,及上传至Hugging Face,满足不同用户的需求。
LoRA - 大型语言模型的低秩适配方法与参数节省
DeBERTaGLUEGPT-2GithubLoRARoBERTa开源项目
LoRA通过低秩分解矩阵实现大型语言模型的低秩适配,减少了训练参数数量,实现高效的任务切换和存储节省。它在GLUE基准测试中的表现与完全微调相当或更好,同时显著降低了参数需求。LoRA支持RoBERTa、DeBERTa和GPT-2等模型,并已集成到Hugging Face的PEFT库中,提供了便捷的适配解决方案。
bitsandbytes - 高效CUDA优化库 支持多位量化和矩阵运算
CUDAGithubbitsandbytes优化器开源项目硬件后端量化
bitsandbytes是一个轻量级Python库,为CUDA自定义函数提供封装。该库主要提供8位优化器、矩阵乘法(LLM.int8())以及8位和4位量化功能。通过bitsandbytes.nn模块实现多位线性层,bitsandbytes.optim模块提供优化器。目前正在拓展对更多硬件后端的支持,包括Intel CPU+GPU、AMD GPU和Apple Silicon,Windows平台的支持也在开发中。
H2O - 提升大型语言模型推理效率的关键token识别技术
GithubH2OKV缓存大语言模型开源项目推理效率注意力机制
H2O项目提出了一种创新的KV缓存实现方法,通过识别对注意力分数贡献最大的少数token,显著减少了大型语言模型推理的内存占用。该项目引入了Heavy Hitter Oracle (H2O)作为KV缓存淘汰策略,在多个任务中验证了其准确性。在OPT-6.7B和OPT-30B模型上,H2O显著提高了推理吞吐量并减少了延迟,为大型语言模型的高效推理提供了新的解决方案。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号
"related\"}]\n"])