Project Icon

AutoFP8

量化库优化大语言模型推理性能

AutoFP8是一个开源FP8量化库,用于生成vLLM兼容的压缩检查点。它提供FP8_E4M3精度的量化权重、激活和KV缓存比例,支持静态和动态激活方案。AutoFP8能将预训练模型转换为FP8格式,与vLLM无缝集成,提高大语言模型推理效率,同时保持模型精度。这个工具适用于优化和部署大规模语言模型。

aya-expanse-8b-GGUF - 提供多语言支持的文本生成模型量化解决方案
ARMCohereForAI/aya-expanse-8bGithubHuggingfacehuggingface-cli开源项目模型量化非商业使用
这个开源项目通过llama.cpp工具量化,支持多语言的文本生成,包含中文、英文、法文等。项目特别推荐Q6_K_L和Q5_K_L模型版本,适合低内存环境下使用并可在LM Studio中运行。项目遵循CC BY-NC 4.0许可协议,仅限非商业用途。
awesome-model-quantization - 全面的模型量化研究资源
Awesome Model QuantizationBiBenchEfficient_AIGC_RepoGithubMQBenchSurvey of Quantization开源项目
此项目汇集了关于模型量化的各类论文、文档和代码,为研究者提供丰富的参考资源。内容包括二值化和量化方法的调研、基准测试,以及生成模型的压缩和加速技术。项目持续更新,并欢迎对未收录研究成果的贡献。感谢所有已作出贡献的研究者。
InferLLM - 轻量化语言模型推理框架,兼容多种模型格式和设备
GithubInferLLMllama.cpp多模型兼容开源项目模型推理高效率
InferLLM 是一个高效简洁的语言模型推理框架,源于 llama.cpp 项目。主要特点包括结构简单、高性能、易于上手,并支持多模型格式。目前兼容 CPU 和 GPU,可优化 Arm、x86、CUDA 和 riscv-vector,并支持移动设备部署。InferLLM 引入了专有 KVstorage 类型以简化缓存和管理,适合多种应用场景。最新支持的模型包括 LLama-2-7B、ChatGLM、Alpaca 等。
hqq - 无需校准数据即可快速精确量化大模型的工具
8,4,3,2,1 bitsCUDAGithubHQQtorch.compile开源项目模型量化
HQQ是一种无需校准数据即可快速精确量化大模型的工具,支持从8bit到1bit的多种量化模式。兼容LLMs和视觉模型,并与多种优化的CUDA和Triton内核兼容,同时支持PEFT训练和Pytorch编译,提升推理和训练速度。详细基准测试和使用指南请访问官方博客。
StarCoder2-7B-GGUF - 多种量化模型版本,提升代码生成性能与存储效率
GithubHuggingfaceLlamaEdgeStarCoder2代码生成开源项目模型模型压缩量化模型
此项目提供多种量化模型版本,旨在优化代码生成任务中的性能与存储效率。可选范围包括小容量、质量损失较大的版本到大容量、质量损失低的版本,以满足各种需求。Q4_K_M与Q5_K_M模型在质量与容量间表现出良好的平衡。该项目使用llama.cpp进行量化,适合空间与性能有特定需求的开发者。
Mythalion-13B-AWQ - 利用高效的低比特量化提升Transformer推理速度
GithubHuggingfaceMythalion 13B伪人AI开源项目文本生成模型模型整合量化
该项目提供高效的AWQ模型文件,支持4比特量化在多用户环境中实现快速Transformer推理。虽然未量化模型的整体吞吐量更高,但通过使用更小的GPU,AWQ模型显著降低了部署成本,例如仅需1台48GB GPU即可运行70B模型。该模型适合需要高吞吐量并行推理的场景,用户可借助vLLM或AutoAWQ轻松调用以降低成本并简化部署。
Meta-Llama-3.1-405B-Instruct-GPTQ-INT4 - Meta Llama 3.1模型的INT4量化版本实现多语言对话
GithubHuggingfaceLlama 3.1大语言模型开源项目推理部署模型模型量化深度学习
Meta-Llama-3.1-405B-Instruct量化模型通过AutoGPTQ技术将FP16压缩至INT4格式,实现了更高效的多语言对话能力。模型集成了transformers、AutoGPTQ、TGI和vLLM等多种推理框架,方便灵活部署。经过基准测试验证,该社区驱动的量化版本在降低内存占用的同时保持了原有性能水平。
Llama-3-8B-Instruct-v0.9-GGUF - 高效量化Llama-3-8B-Instruct模型支持多种位宽
GGUFGithubHuggingfaceLlama-3人工智能开源项目文本生成模型量化模型
Llama-3-8B-Instruct-v0.9模型的GGUF格式量化版本提供2-bit至8-bit多种位宽选择。GGUF作为llama.cpp团队推出的新格式取代了GGML。该模型兼容多种GGUF支持的客户端和库,如llama.cpp和LM Studio,支持GPU加速,适合本地部署文本生成任务。
fsdp_qlora - 量化技术实现大型语言模型的高效训练
FSDPGithubLLMQLoRA开源项目微调量化
fsdp_qlora项目结合FSDP与量化LoRA,实现了在有限显存GPU上高效训练大型语言模型。支持HQQ和bitsandbytes的4位量化、LoRA、DoRA等多种策略,大幅降低内存占用。项目提供详细文档,便于快速上手使用。该方法使在消费级GPU上训练70B参数模型成为可能,为大模型研究提供了实用工具。
Meta-Llama-3.1-8B-Instruct-quantized.w4a16 - 基于LLaMA 3.1的INT4量化指令模型
GithubHuggingfaceMeta-LlamavLLM多语言支持开源项目模型评估基准量化模型
Meta-Llama-3.1-8B-Instruct模型的INT4量化版本,将模型参数从16bit压缩至4bit,有效降低75%的存储和显存占用。模型在Arena-Hard、OpenLLM、HumanEval等基准测试中表现稳定,量化后性能恢复率保持在93%-99%之间。通过vLLM后端部署,支持8种语言处理,适合商业及研究领域应用。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号