#GGUF
Tiger-Gemma-9B-v3-GGUF - Gemma-9B大语言模型优化版 移除限制支持GGUF格式
语言模型Tiger Gemma 9B救助流浪猫模型解密Github开源项目GGUFHuggingface
Tiger-Gemma-9B-v3是基于Gemma-9B的优化模型,通过新数据集移除了原模型的限制。模型已转换为GGUF格式,便于本地部署。项目开源于Hugging Face平台,为开发者提供了更自由的大语言模型选择。模型命名源自作者收养的猫咪Tiger,体现了对AI表达自由的追求。
codegemma-7b-GGUF - 经过量化优化的代码生成模型,支持多种精度选择的GGUF格式
GGUF文件大小HuggingfaceGithub开源项目模型CodeGemma性能对比模型量化
这个项目提供了CodeGemma-7b模型的多种量化版本,文件大小从2.16GB到9.07GB不等,采用GGUF格式。支持从Q8到IQ1的多种精度等级,可适应不同的硬件配置。其中Q6_K、Q5_K和Q4_K系列版本在性能和空间优化方面表现较好,适合生产环境使用。用户可根据自身的内存和显存情况选择合适的版本。
Phi-3.5-mini-instruct-GGUF - 高性能微软小型语言模型的量化方案
ARM芯片Phi-3.5-mini-instructGithub量化模型开源项目GGUF模型权重Huggingface
该项目基于llama.cpp框架,对Microsoft Phi-3.5-mini-instruct模型进行GGUF格式量化,提供从Q2到Q8等多个精度版本。每个量化版本都针对不同硬件平台进行了优化,包括针对ARM芯片的特殊优化版本。项目提供完整的模型特性对比和选择指南,帮助开发者根据实际需求选择合适的量化版本。
Arabic-Orpo-Llama-3-8B-Instruct-GGUF - 阿拉伯语AI文本生成:支持新GGUF格式的创新工具
技术更新模型选择开源项目GGUF接口支持模型GPU加速HuggingfaceGithub
GGUF格式是llama.cpp团队在2023年推出的创新替代方案,旨在取代过时的GGML格式。多个应用程序和库已支持该格式,如ollama、llama.cpp和llama-cpp-python,后者提供GPU加速和OpenAI兼容功能。这些工具不仅提高了文本生成的效率,也为Windows、Linux和macOS用户提供了更多便利,尤其是支持故事生成和其他高级功能,为需要先进人工智能功能的用户提供理想解决方案。
WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GGUF - AI叙事模型兼容多种用户界面与库
模型文件量化开源项目模型GithubHuggingfaceGPU加速GGUFWizardLM
WizardLM系列采用GGUF格式,支持多种平台和量化方法,适合自然语言生成应用,支持Python和LangChain集成及GPU加速。
EZO-gemma-2-2b-jpn-it-GGUF - GGUF格式优化的日语Gemma模型
开源项目iMatrix日语模型Github模型量子化HuggingfaceGemmaGGUF
EZO-gemma-2-2b-jpn-it-GGUF项目将AXCXEPT的日语Gemma模型转换为GGUF格式,提高了模型效率。项目采用K量子化技术,并利用TFMC提供的iMatrix数据集增强日语处理能力。这些优化使得模型在保持高性能的同时更加轻量化,适合需要高效日语语言模型的应用场景。
CausalLM-7B-GGUF - 基于CausalLM 7B的双语语言模型量化优化方案
GGUFHuggingface量化开源项目模型CausalLMGithub语言模型llama.cpp
CausalLM 7B模型GGUF格式转换项目提供多种量化版本实现。该模型支持中英双语能力,基于多个数据集训练。项目包含2比特到8比特的不同量化方案,适配各类硬件环境。完整的部署文档和兼容性说明确保模型可快速应用。
Llama-3.2-1B-Instruct-Uncensored-GGUF - Llama小型无审查语言模型的量化实现
Llama开源项目量化模型transformersGithubGGUFHuggingface模型语言模型
这是针对Llama-3.2-1B-Instruct-Uncensored模型的GGUF量化项目,提供从Q2_K到f16在内的多种量化版本。模型文件大小范围在0.7GB至2.6GB之间,通过不同的量化方案平衡了性能与存储空间。项目包含完整的性能对比数据和使用文档,方便开发者根据实际需求选择合适的模型版本。
Meta-Llama-3.1-405B-Instruct-GGUF - Meta-Llama 3.1量化版大模型支持多语种文本生成
GGUFMeta-Llama-3.1-405B-Instruct量化模型大语言模型HuggingfaceGithub开源项目模型文本生成
Meta-Llama-3.1-405B-Instruct模型的GGUF量化版本支持英语、德语、法语在内的8种语言文本生成。通过2-bit和3-bit量化技术优化,可在llama.cpp、LM Studio等主流框架上运行,方便开发者进行本地部署和应用开发。
Qwen2-7B-Multilingual-RP-GGUF - 多语言量化优化模型集合,支持多种精度和高效推理
GGUFllama.cppQwen2-7B-Multilingual-RP量化HuggingfaceGithub开源项目模型文件模型
本项目提供了Qwen2-7B-Multilingual-RP模型的多种GGUF量化版本,文件大小从2.46GB到9.12GB不等。使用llama.cpp的imatrix技术,涵盖Q8至Q2多个精度级别,包括传统K-quants和新型I-quants方案。用户可根据设备性能选择适合的版本,支持在CPU、GPU等环境下进行英语、韩语、日语、中文和西班牙语的多语言处理。
WizardLM-1.0-Uncensored-Llama2-13B-GGUF - 解读WizardLM 1.0推出的GGUF格式模型
WizardLM量化Eric Hartford模型Github开源项目GGUFHuggingface
该项目推出了WizardLM 1.0 Uncensored Llama2 13B的GGUF格式模型。GGUF格式是GGML的替代,由llama.cpp团队于2023年8月开发,具备标记化提升和对特定标记的支持,并包含元数据和可扩展功能。用户可在llama.cpp、text-generation-webui和KoboldCpp等多种平台上使用,实现跨平台的GPU加速和优化。项目细分不同量化参数模型,用户可根据需要利用多种工具便捷下载,并依照指南进行部署。模型在兼容性上表现突出,支持LangChain等多种Python库,提供更多使用选择。
llama3-8B-DarkIdol-2.2-Uncensored-1048K-GGUF - 多语言支持的llama3-8B GGUF量化模型,提供多级压缩优化
开源项目量化模型Github模型Huggingfacellama3大语言模型GGUF权重压缩
llama3-8B GGUF量化模型支持英语、日语和中文,提供3.3GB至16.2GB多种压缩版本,适应不同硬件需求。Q4_K系列在性能和质量上表现均衡。模型基于transformers库开发,适用于角色扮演和偶像相关场景。用户可通过Hugging Face平台获取各版本及其性能对比信息。
Luna-AI-Llama2-Uncensored-GGUF - 开源Llama 2模型的GGUF量化版本
GGUF量化压缩LlamaHuggingfaceGithub开源项目模型人工智能文件格式
这是Tap-M开发的Luna AI Llama2 Uncensored模型的GGUF量化版本。项目提供了2-8比特不同量化级别的模型文件,支持CPU和GPU推理,可与llama.cpp及主流UI框架配合使用。模型基于cc-by-sa-4.0和Meta Llama 2双重许可协议发布。
NuExtract-v1.5-GGUF - NuExtract-v1.5模型多种GGUF量化版本集合
模型下载NuExtract-v1.5量化模型Github开源项目llama.cppGGUFHuggingface
本项目提供NuExtract-v1.5模型的多种GGUF量化版本,涵盖从高质量Q8_0到小型IQ2_M在内的多种类型。项目详细介绍了各版本特点,并根据硬件配置和性能需求提供选择建议。此外,还包含模型下载、使用说明和优化技巧,方便用户根据实际情况选择最适合的版本。
MiniCPM3-4B-GGUF - MiniCPM3-4B GGUF版本的多语言模型下载
开源项目GitHub模型GithubHuggingface模型压缩MiniCPM3-4BGGUF
MiniCPM3-4B的GGUF版本提供minicpm3-4b-fp16.gguf和minicpm3-4b-q4_k_m.gguf两种模型,支持英语和简体中文。GitHub仓库提供更多的使用信息,便于多语言自然语言处理的开发和应用。
MythoMax-L2-Kimiko-v2-13B-GGUF - 了解多种量化选项和GGUF格式特色
GPU加速格式兼容性模型量化MythoMax L2 Kimiko v2 13B模型Github开源项目GGUFHuggingface
此项目提供MythoMax L2 Kimiko v2 13B模型在GGUF格式中的多种量化文件,优化了标记化及特殊标记支持。用户可选择适用于GPU和CPU推理的版本,并通过llama.cpp、text-generation-webui等多种客户端和库获得支持,兼具兼容性与灵活性,适合不同硬件平台的需求。
dolphin-2.0-mistral-7B-GGUF - 开源语言模型Dolphin Mistral的GGUF量化版本
TheBloke开源项目GGUF量化模型Mistral 7B模型HuggingfaceGithubLLM
Dolphin-2.0-mistral-7B的GGUF格式模型提供多个量化版本,从2比特到8比特不等。模型支持CPU和GPU推理,可在llama.cpp等框架上运行。采用ChatML提示模板格式,适用于文本生成和对话任务。项目提供完整使用文档,支持多种部署方式。
MythoMax-L2-13B-GGUF - 基于Llama2的高性能GGUF量化语言模型
GGUF量化HuggingfaceMythoMax L2 13BGithub开源项目AI模型模型LLM
MythoMax-L2-13B是一个基于Llama2的GGUF量化语言模型,提供2-8比特共13种量化版本。模型支持llama.cpp等多种终端工具,具备更强的分词能力和特殊令牌支持。模型文件大小从5.43GB到13.83GB不等,可根据设备配置选择合适版本。该模型遵循Meta Llama 2许可协议。
相关文章