Project Icon

mixtral-offloading

Mixtral-8x7B模型高效推理的实现方法

该项目实现了Mixtral-8x7B模型的高效推理,使用混合量化和MoE卸载策略。通过HQQ量化方案分别处理注意力层和专家层,使模型适应GPU和CPU内存。每层的专家单独卸载并在需要时重新加载到GPU,活跃专家存储在LRU缓存中以减少GPU-RAM通信。更多技术细节和结果请参阅技术报告。

ChatGLM-Efficient-Tuning - 微调ChatGLM-6B模型,支持多种训练和量化方法
ChatGLMGithubRLHF开源项目数据集机器学习高效微调
ChatGLM-Efficient-Tuning项目提供高效微调ChatGLM-6B模型的工具和方法,支持LoRA、P-Tuning V2等多种微调方式,适用于单GPU和多GPU训练。项目还提供Web UI和CLI操作,支持4-bit和8-bit量化训练。通过丰富的数据集和功能,如强化学习和模型评估,满足不同场景的微调需求。详情请参见项目Wiki。
Mistral-7B-Instruct-v0.1-GPTQ - Mistral-7B-Instruct量化模型 多种精度选项
AI模型GPTQ量化GithubHuggingfaceMistral大语言模型开源项目指令微调模型
Mistral-7B-Instruct-v0.1模型的GPTQ量化版本提供4位和8位精度等多种参数选项。量化后的模型体积显著减小,性能基本不变,适合消费级GPU推理。支持通过ExLlama或Transformers加载,可用于高效文本生成。用户可根据硬件和需求选择合适版本。
StarCoder2-7B-GGUF - 多种量化模型版本,提升代码生成性能与存储效率
GithubHuggingfaceLlamaEdgeStarCoder2代码生成开源项目模型模型压缩量化模型
此项目提供多种量化模型版本,旨在优化代码生成任务中的性能与存储效率。可选范围包括小容量、质量损失较大的版本到大容量、质量损失低的版本,以满足各种需求。Q4_K_M与Q5_K_M模型在质量与容量间表现出良好的平衡。该项目使用llama.cpp进行量化,适合空间与性能有特定需求的开发者。
Mistral-7B-Instruct-v0.1-AWQ - AWQ量化优化的Mistral-7B指令模型 支持GPU加速推理
AWQ量化GithubHuggingfaceMistral-7B-Instruct-v0.1人工智能大语言模型开源项目指令微调模型
Mistral-7B-Instruct-v0.1-AWQ是基于Mistral AI开源的指令微调语言模型,经过AWQ 4位量化优化。该模型保留了原版的分组查询注意力和滑动窗口注意力等特性,同时大幅降低了模型大小,提升了GPU推理速度。它支持处理4096个token的长文本输入,适合需要高效部署的应用场景。开发者可以通过Python接口便捷地使用该模型进行文本生成。
qwen2.5-7b-ins-v3-GGUF - 量化优化AI模型的多样化选择指南
GithubHuggingfaceQwen2.5-7b-ins-v3quantization参数嵌入权重开源项目模型
该项目利用llama.cpp的b3901版本和imatrix选项对AI模型进行量化优化,支持各种硬件的量化格式下载。在LM Studio中运行这些模型,可通过缩小文件大小实现更高效的部署。K-quant格式在低资源环境中表现突出,而I-quants则在某些情况下显示出其新方法的优越性能,尤其建议ARM芯片用户选择Q4_0_X_X以获取更快速的响应。
Meta-Llama-3.1-8B-Instruct-awq-4bit - 高效4位量化的大型指令模型 适用GPU推理
AutoAWQGPUGithubHuggingfaceLlama 3.1开源项目模型自然语言处理量化
Meta-Llama-3.1-8B-Instruct模型的4位量化版本,采用AutoAWQ技术实现。This Kaitchup开发的这一版本旨在提高GPU推理效率,在保持原始性能的同时显著降低内存占用。适合在资源受限环境中运行,项目页面提供了量化过程、评估结果及使用方法的详细信息。
Replete-Coder-Llama3-8B-GGUF - 基于llama.cpp优化的高效量化方法提升文本生成性能
GithubHuggingfaceReplete-Coder-Llama3-8B开源项目数据集文本生成模型模型压缩量化
该开源项目利用llama.cpp进行模型量化,适用于HumanEval和AI2推理挑战等任务,提供多种量化选项如Q8_0和Q6_K,适应不同内存要求,同时优化性能表现。I-quant量化在低于Q4时表现良好,用户可依据自己的设备内存和GPU VRAM选择合适的量化格式,通过huggingface-cli便捷获取所需文件。
Mistral-7B-Instruct-v0.2-GPTQ - 高效量化的开源指令型大语言模型
AI推理GPTQGithubHuggingfaceMistral 7B开源项目模型模型下载量化模型
Mistral-7B-Instruct-v0.2模型的GPTQ量化版本,提供4位和8位精度等多种参数选项。支持Linux和Windows的GPU推理,兼容多个开源框架。采用Mistral提示模板,适用于指令任务。由TheBloke量化发布,旨在提供高效易用的开源大语言模型。
Ministral-8B-Instruct-2410-HF-GGUF-TEST - Ministral-8B多种量化版本支持本地AI部署
GithubHuggingfaceMinistral-8B-Instruct-2410-HF人工智能内存优化开源项目模型模型文件量化
Ministral-8B-Instruct-2410-HF模型的量化版本项目,提供从f16到Q2_K等多种精度,文件大小3GB至16GB不等。支持LM Studio等工具本地部署,详细介绍各版本特点和适用场景,并提供选择指南。用户可根据硬件条件选择合适版本,实现高效本地AI部署。
Meta-Llama-3-8B-Instruct-FP8 - FP8量化版Meta Llama 3实现内存占用减半
FP8量化GithubHuggingfaceMeta-Llama-3vLLM大语言模型开源项目模型模型优化
这是一个通过8位浮点(FP8)量化技术优化的Meta Llama 3模型,在仅占用原模型一半存储空间和GPU内存的同时,保持了99.28%的性能水平。模型基于vLLM后端运行,支持英语对话场景下的商业及研究应用,可用于构建AI助手等应用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号