#GGUF
CASALIOY
CASALIOY项目是一款高效的离线LLM工具套件,支持最新的GGUF标准、LangChain和qdrant集成。用户可以通过Docker或源码轻松部署,并通过命令行或GUI与本地文档库交互。详细的安装指南和示例配置文件方便用户快速上手,支持多种数据格式的处理和数据的本地存储,确保数据安全。本项目附有更新支持。
llama_cpp-rs
llama_cpp-rs是一个Rust绑定库,用于在CPU上运行GGUF大语言模型。它提供简洁的API,支持快速模型加载和文本生成。该项目兼容CUDA、Vulkan等后端,并包含内存预测功能。llama_cpp-rs简化了大语言模型的使用流程,适合各层级开发者。
llama2_70b_chat_uncensored-GGUF
Llama2 70B Chat Uncensored项目引入了采用GGUF格式的新模型文件,与传统GGML相比,增强了性能与功能。GGUF格式在词元化和特殊标记支持方面表现出色,并支持元数据,提升了第三方UI和库的兼容性。由llama.cpp团队于2023年8月21日发布的此新格式,适合用于聊天机器人、文本生成等机器学习应用。
deepseek-coder-33B-instruct-GGUF
本项目提供DeepSeek Coder 33B Instruct模型的GGUF量化版本。GGUF是llama.cpp团队开发的新格式,替代了旧有的GGML。该模型专注于计算机科学领域,不回答政治敏感或安全隐私等无关问题。项目包含多种量化参数选项,支持CPU和GPU推理,兼容多种第三方界面和库。用户可根据硬件配置和使用需求选择适合的量化版本。
FLUX.1-dev-gguf
FLUX.1-dev-gguf是black-forest-labs/FLUX.1-dev模型的GGUF量化版本,主要用于文本到图像的生成。此模型与ComfyUI-GGUF自定义节点完全兼容,并严格遵守原始许可条款。它为ComfyUI环境中的图像创作者提供了高效的生成工具。模型文件可以轻松部署到ComfyUI/models/unet目录中。通过量化技术,FLUX.1-dev-gguf在保持原模型性能的同时,提高了运行效率,使其成为图像生成任务的理想选择。
Meta-Llama-3.1-8B-Instruct-GGUF
Meta-Llama-3.1-8B-Instruct-GGUF是Llama 3.1模型的量化版本,使用llama.cpp技术实现。该项目提供多种精度的模型文件,从32GB的全精度到4GB的低精度,适应不同硬件需求。模型支持英语、德语、法语等多语言指令任务,可用于对话和问答。用户可选择合适的量化版本,在保持性能的同时优化资源使用。
Llama-3.2-3B-Instruct-uncensored-GGUF
Llama-3.2-3B-Instruct-uncensored模型的GGUF量化版本,提供从1.6GB到7.3GB不等的多种量化类型。量化后的模型大小显著减小,便于部署使用,同时尽可能保持原模型性能。项目包含详细的量化版本说明、使用指南和常见问题解答,有助于用户选择适合的版本。
NemoMix-Unleashed-12B-GGUF
NemoMix-Unleashed-12B-GGUF项目提供了多种NemoMix-Unleashed-12B模型的量化版本。这些版本采用llama.cpp进行处理,精度范围从F16到IQ2_M,文件大小在4.44GB至24.50GB之间。项目详细介绍了各量化类型、文件大小及使用建议,便于用户根据硬件选择合适版本。同时提供下载指南和性能比较资料,方便模型部署和评估。
gguf-tools
该工具库正在开发中,专注于处理和解析GGUF文件。它提供详细的键值对和张量信息展示、文件比较和张量细节检查等功能。gguf-tools旨在为机器学习领域提供多种实现方案,帮助理解和使用GGUF格式,提升模型操作和分析的效率。该工具展示了如何在实际应用中使用库,并将来计划加入更多有趣且实用的示例和功能。