#模型文件

storytime-13B-GGUF - 深入了解Storytime 13B的GGUF格式及其量化方法的多样选择
Github开源项目Hugging Face模型量化Huggingface兼容性模型文件Storytime 13B
本项目提供由Charles Goddard开发的Storytime 13B模型的GGUF格式文件,进一步扩展了与多种UI和库的兼容性,以便在多平台上实现高效的GPU加速推理。用户可以基于不同的需求选择从Q2_K到Q8_0的量化模型,覆盖高效到高质量的多样化选项。文件已经过优化量化处理,提供从轻量化性能提升到极低质量损失的选择。此外,还提供了模型的下载与运行指南,帮助用户更快速上手。
Llama-3.1-8B-Lexi-Uncensored-V2-GGUF - Llama-3.1-8B-Lexi开源量化模型概览
Github开源项目模型高质量量化Huggingface权重模型文件Llama-3.1-8B-Lexi-Uncensored-V2
项目介绍了Llama-3.1-8B-Lexi不同量化模型版本,涵盖从高性能到轻量化版本。基于llama.cpp的imatrix量化选项,模型支持在LM Studio中运行。项目提供从完整F32权重到轻量化IQ2_M版本的多种选择,适合不同内存及质量需求的用户,并提供详细的下载和性能指引,帮助在系统RAM与GPU VRAM间找到平衡。
Xwin-LM-70B-V0.1-GGUF - 提升AI模型兼容性的最新GGUF格式
人工智能Github开源项目模型量化GPU加速Huggingface模型文件Xwin-LM 70B V0.1
Xwin-LM 70B V0.1采用全新的GGUF格式,取代了GGML,支持多种量化方法如Q2_K、Q3_K、Q4_K等,提升GPU和CPU兼容性。该模型兼容多种平台,如llama.cpp、text-generation-webui、KoboldCpp等,应用场景多样。提供详细的量化文件下载和使用说明,适合开发者和研究人员进行AI模型优化。
llama-30b-supercot-GGUF - Llama 30B Supercot GGUF:多种量化格式与GPU加速
Github开源项目模型量化GPU加速Huggingface模型文件Llama 30B Supercot新格式
GGUF格式的Llama 30B Supercot模型支持GPU加速,具备多个量化选项。由ausboss创建,提供多种格式适应不同需求,推荐Q4_K_M格式以实现性能与质量的平衡。GGUF是GGML的替代格式,兼容多种用户界面和库,如llama.cpp、text-generation-webui,适合于机器学习和AI领域应用。
WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GGUF - AI叙事模型兼容多种用户界面与库
Github开源项目模型量化GPU加速HuggingfaceWizardLMGGUF模型文件
WizardLM系列采用GGUF格式,支持多种平台和量化方法,适合自然语言生成应用,支持Python和LangChain集成及GPU加速。
Qwen2-7B-Multilingual-RP-GGUF - 多语言量化优化模型集合,支持多种精度和高效推理
Github开源项目llama.cpp模型量化HuggingfaceGGUF模型文件Qwen2-7B-Multilingual-RP
本项目提供了Qwen2-7B-Multilingual-RP模型的多种GGUF量化版本,文件大小从2.46GB到9.12GB不等。使用llama.cpp的imatrix技术,涵盖Q8至Q2多个精度级别,包括传统K-quants和新型I-quants方案。用户可根据设备性能选择适合的版本,支持在CPU、GPU等环境下进行英语、韩语、日语、中文和西班牙语的多语言处理。
Mistral-7B-OpenOrca-GGUF - Mistral 7B OpenOrca:高效文本生成的开源模型
Github开源项目文本生成模型GPU加速Huggingface模型文件量化方法Mistral 7B OpenOrca
Mistral 7B OpenOrca是由OpenOrca推出的GGUF格式模型,支持多种量化方法和GPU加速,适用于多种文本生成场景。模型兼容多种网络UI和Python库,采用先进技术实现高效内存管理和性能优化,支持长序列扩展。
Llama-2-70B-Chat-GGUF - 支持文本生成与特殊符号的先进开源模型
Github开源项目文本生成模型Llama 2Huggingface兼容性模型文件量化方法
Llama 2 70B Chat项目采用全新GGUF格式,取代已弃用的GGML格式,提升标记化与特殊符号支持功能。此项目由Meta Llama 2开发,兼容多种UI与库,支持多平台GPU加速应用,在文本生成与性能方面提供明显改善。GGUF格式还具备元数据支持,具备更强的扩展性,适用于复杂多变的应用场景。
dolphin-2.2.1-mistral-7B-GGUF - 支持多平台GPU加速的量化格式,用于大语言模型的创新解决方案
Github开源项目模型Python库硬件加速量化Huggingface模型文件Dolphin 2.2.1 Mistral 7B
Dolphin 2.2.1 Mistral 7B采用GGUF量化格式,这一创新方案取代了已弃用的GGML。借助Massed Compute的硬件,该模型可实现高效的GPU加速和优质存储,并兼容多个web UI和专业工具,如llama.cpp和LM Studio,以满足多平台的深度学习需求。
Yi-Coder-9B-Chat-GGUF - Yi-Coder-9B-Chat模型量化文件选择及使用指南
Github开源项目文本生成模型transformers量化HuggingfaceYi-Coder-9B-Chat模型文件
Yi-Coder-9B-Chat经过Llamacpp的imatrix选项量化处理,增强了在不同硬件上的推理能力。用户能根据自身需求从Q8_0、Q6_K_L等多种量化模型中选择,以适应不同的RAM和VRAM配置。更新内容包括分词器修复,所有文件均可在LM Studio中运行。项目亦提供对ARM芯片优化的Q4_0_X_X文件,用户可通过huggingface-cli下载具体量化模型并查看硬件兼容性和使用建议。
gemma2-9B-daybreak-v0.5-i1-GGUF - 多规格IQ量化文件优化AI模型表现
Github开源项目Hugging Face模型使用方法量化Huggingface模型文件Gemma2-9B-Daybreak
本项目提供多种规格的量化文件,供满足不同AI性能和质量需求的应用选择。用户可通过TheBloke的指南熟悉GGUF文件的使用和多部分合并,并根据具体要求选择合适的文件版本。量化文件包括从i1-IQ1到i1-Q6的不同规格,其中部分文件在优化速度的同时,保持了优秀的质量。感谢nethype GmbH和@nicoboss的技术支持,确保了高质量imatrix量化文件的生产。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号