#GPTQ
text-generation-webui-colab - Colab平台上GPT模型的快速部署指南
ColabGPTQVicunaHuggingfaceLLaMAGithub开源项目
本页面介绍如何在Colab平台上便捷部署多种GPT模型,包括vicuna、alpaca、llama等。用户可通过一键启动这些模型,适用于文本生成等应用。页面详细描述了每个模型的特性和使用方法,并提供对应的Colab链接,帮助用户高效进行实验和开发。
Wizard-Vicuna-7B-Uncensored-GPTQ - 支持多平台推理的高效GPTQ模型文件
Github模型人工智能助手开源项目量化模型GPTQHuggingfaceWizard Vicuna 7B未过滤
项目提供多样的GPTQ模型文件,支持多种推理配置和硬件平台需求。通过多种量化参数优化,提升推理质量及多样化VRAM使用。基础模型由Eric Hartford创建,专为NLP应用而设计,无需内容审核,用户可自由定制对齐方式,适用广泛领域的AI助手开发。
TinyLlama-1.1B-Chat-v1.0-GPTQ-Marlin-4bit - 量化版4-bit模型采用GPTQ提升效率及性能
TinyLlamaGPTQ量化模型4-bitGithub开源项目配置Huggingface
该项目使用AutoGPTQ以4-bit Marlin格式对大型语言模型进行量化,旨在提升性能与效率。量化配置涵盖4位量化、128组大小及0.01%阻尼比等技术细节,适用于寻求高效深度学习模型的用户,为复杂任务提供节省资源的方案。
Mistral-7B-Instruct-v0.2-GPTQ - 高效量化的开源指令型大语言模型
模型AI推理Mistral 7BGPTQGithub量化模型模型下载Huggingface开源项目
Mistral-7B-Instruct-v0.2模型的GPTQ量化版本,提供4位和8位精度等多种参数选项。支持Linux和Windows的GPU推理,兼容多个开源框架。采用Mistral提示模板,适用于指令任务。由TheBloke量化发布,旨在提供高效易用的开源大语言模型。
Mistral-7B-Instruct-v0.3-GPTQ-4bit - Mistral-7B指令模型的4位量化版本 保持高准确率
模型Github开源项目HuggingfacevLLM自然语言处理Mistral-7B-Instruct量化模型GPTQ
Mistral-7B-Instruct-v0.3-GPTQ-4bit是Mistral-7B指令模型的4位量化版本。通过GPTQ技术,该模型在大幅缩小体积的同时,保持了原模型99.75%的准确率。在多项基准测试中,该模型平均准确率达65.05%。它兼容vLLM优化推理,可作为高效的自然语言处理服务器部署。
Meta-Llama-3.1-8B-Instruct-GPTQ-INT4 - Meta-Llama-3.1-8B-Instruct模型的INT4量化版本
模型量化推理GPTQMeta Llama 3.1Github大语言模型Huggingface开源项目
Meta-Llama-3.1-8B-Instruct模型的INT4量化版本,由社区开发。该版本将原FP16模型量化为INT4,支持多语言对话,在行业基准测试中表现优异。模型仅需约4GB显存即可加载,兼容多种推理框架。项目提供详细使用指南和量化复现方法,适用于资源受限环境下的高效部署。
MythoMax-L2-13B-GPTQ - 多样化GPTQ参数选择,满足多种硬件配置需求
量化模型GPTQ角色扮演TheBlokeMythoMax L2 13B模型Github开源项目Huggingface
MythoMax L2 13B提供多种GPTQ量化配置,适用于多种硬件环境,提升模型性能。用户可选择不同分支进行下载,包括4-bit和8-bit版本,支持VRAM高效利用和精确推理。该项目兼容多种平台如ExLlama、AutoGPTQ和Huggingface的Text Generation Inference,为AI开发者提供灵活的工具和高效的解决方案。
WizardLM-7B-uncensored-GGUF - WizardLM-7B模型的GGUF格式转换与兼容性详解
量化开源项目GPTQ模型GithubHuggingfaceLLMWizardlm 7B Uncensored
本文档提供了对Wizardlm 7B Uncensored模型的GGUF格式的全面介绍,涵盖了与其兼容的各种客户端和库。GGUF是一种新推出的模型格式,取代了不再支持的GGML,支持多种量化方法,可用于GPU加速并适应多种平台。该项目由Eric Hartford设计,由TheBloke进行量化,包含不同比特级别的量化版本,以便用户依据需求选择适当的模型格式和质量。本文还详细说明了下载、安装和运行这些模型的多种方法,包括Python代码示例和LangChain集成演示,为开发者提供详尽指南。
Mistral-Nemo-Instruct-2407-GPTQ - 基于Mistral-Nemo的轻量级4比特量化指令模型
Apache许可证Mistral-Nemo-Instruct-2407量化模型Huggingface模型GPTQGithub开源项目HuggingFace
Mistral-Nemo-Instruct-2407-GPTQ是基于Mistral-Nemo-Instruct-2407的量化版本。该模型采用4比特GPTQ技术进行压缩,配合128的分组大小和ExLlama设置,在保持性能的同时显著减小了模型体积。项目提供了完整的量化参数和源代码链接,为开发者提供了一个兼具效率和性能的指令型模型选择。
Mixtral-8x7B-Instruct-v0.1-GPTQ - Mixtral-8x7B多语言推理模型的GPTQ量化版本
模型量化推理GPTQGithub大语言模型Mixtral 8X7BHuggingface开源项目
本项目提供Mistral AI的Mixtral-8x7B-Instruct-v0.1模型的GPTQ量化版本,支持法语、意大利语、德语、西班牙语和英语多语言推理。模型采用Mixtral架构,提示模板为'[INST] {prompt} [/INST]'。项目提供多种量化参数选项,可适应不同硬件和需求,在保证性能的同时降低资源消耗。该模型使用Apache 2.0许可发布。
Meta-Llama-3.1-70B-Instruct-GPTQ-INT4 - INT4量化版提升多语言对话效率
模型量化开源项目HuggingfaceMeta-Llama-3.1-70B-InstructGithub大语言模型推理GPTQ
本项目展示了Meta Llama 3.1 70B Instruct模型的INT4量化版本。通过AutoGPTQ技术,将原FP16模型压缩至INT4精度,在维持性能的同时显著减少内存使用,仅需约35GB显存即可运行。该项目兼容多个推理框架,如Transformers、AutoGPTQ、TGI和vLLM,便于根据不同需求进行选择。项目还附有详细的量化复现指南,方便用户独立完成模型量化过程。
speechless-code-mistral-7b-v1.0 - 全面支持多语言的代码生成与推理模型
SpeechlessCoderHuggingface模型优化文本生成开源项目模型GPTQGithubPython
该项目展示了一款专注于代码生成和推理的模型,具备提升推理和规划能力的特点。其多种量化选项支持8位以下的CPU+GPU推断,使其在多种编程语言上均表现不俗。模型经过微调,覆盖了201,981个样本的数据集,包括编码、推理和规划样本,支持Alpaca指令格式。在HumanEval基准测试中通过率达51.22%,适用于多种编程语言的验证,如Python、Java、C++等,为编程助手和代码验证提供支持。
TinyLlama-1.1B-Chat-v1.0-GPTQ-4bit - 基于GPTQ量化技术的轻量级4位对话AI模型
TinyLlama开源项目模型GPTQ模型压缩量化模型机器学习GithubHuggingface
TinyLlama-1.1B-Chat-v1.0的4位量化版本,是一个轻量级对话AI模型。该项目采用AutoGPTQ技术进行量化,使用GPTQ方法将模型压缩至4位精度。量化配置包括128的组大小、0.01%的阻尼比例和对称量化等特性。这种优化显著降低了模型大小和内存占用,同时保持了模型性能,为资源受限的AI应用提供了高效解决方案。
Llama-3-8B-Instruct-GPTQ-4-Bit - 利用GPTQ量化优化模型性能的新方法
数据协调HuggingfaceGPTQ量化Meta-Llama-3-8B-InstructApache Airflow模型Github开源项目
Astronomer的4比特量化模型通过GPTQ技术减少VRAM占用至不足6GB,比原始模型节省近10GB。此优化提高了延迟和吞吐量,即便在较便宜的Nvidia T4、K80或RTX 4070 GPU上也能实现高效性能。量化过程基于AutoGPTQ,并按照最佳实践进行,使用wikitext数据集以减小精度损失。此外,针对vLLM和oobabooga平台提供详细配置指南,以有效解决加载问题。
TinyLlama-1.1B-Chat-v0.3-GPTQ - TinyLlama 1.1B Chat GPTQ模型的多样化量化参数选择及使用指南
GithubZhang PeiyuanTinyLlama量化模型开源项目GPTQHuggingface模型推理
项目提供多种GPTQ模型参数,支持不同推理需求,参数包括位深、组大小与激活顺序,以适应多种硬件需求。由TheBloke进行模型量化,支持GPTQ客户端兼容性,校准数据集确保量化精度,如wikitext。提供灵活的分支信息,便于集成至文本生成工具或Python应用中。