#GGUF格式

Swallow-7B-Instruct-GGUF - 适用于多平台的高效量化模型
GGUF格式Swallow 7B InstructHuggingface文本生成量化开源项目模型GithubGPU加速
Swallow 7B Instruct 采用GGUF格式,以高效的量化技术实现文本生成。该模型支持多种位数和硬件平台,可通过llama.cpp及text-generation-webui等软件使用并提供GPU加速,适合于需要高质量文本生成的多种应用。
Guanaco-13B-Uncensored-GGUF - 新型GGUF格式提高推理性能,兼容多种用户界面
兼容性陈旧模型量化GGUF格式模型Guanaco 13B UncensoredGithub开源项目Huggingface
Guanaco 13B Uncensored采用了新的GGUF格式,增强了令牌化和特殊令牌的支持。此格式由llama.cpp团队于2023年推出,替代不再支持的GGML。项目兼容多种客户端和库,如llama.cpp、text-generation-webui及KoboldCpp,适合于多种GPU加速场景。用户可以通过text-generation-webui下载所需模型,或利用huggingface-hub获取特定文件。项目还提供与编程语言如Python的集成方案,支持LangChain等框架。此项目提供多种形式的模型文件及下载途径,适用于多种用户界面和使用场景,为开发者提供了灵活的选择和集成方案。
Qwen2.5-Coder-7B-Instruct-GGUF - 基于Qwen2.5的7B参数代码专用模型支持超长文本输入与代码生成
GGUF格式大语言模型Github开源项目指令微调模型HuggingfaceQwen2.5-Coder代码生成
Qwen2.5-Coder-7B-Instruct-GGUF是一款开源的代码专用大语言模型,通过5.5万亿token的训练提升了代码生成和推理能力。模型采用transformers架构,参数规模为7.61B,具备32K-128K的长文本处理能力。该模型在保持通用能力的同时优化了编程相关任务,支持GGUF格式并可通过llama.cpp部署,适用于代码智能体等实际应用场景。
Qwen2.5-3B-Instruct-GGUF - 高性能3B参数量GGUF格式大语言模型,支持多语言、长文本理解与结构化输出
大语言模型Qwen2.5开源项目自然语言处理模型人工智能HuggingfaceGGUF格式Github
Qwen2.5-3B-Instruct-GGUF是一款基于Qwen2.5系列的指令微调模型,参数量为3B。该模型支持29种语言,具备出色的代码和数学处理能力。它可处理128K tokens的上下文,生成长度达8K tokens的文本。模型采用transformers架构,整合了RoPE和SwiGLU等技术,并提供多种量化版本。其优势在于强大的指令跟随能力、结构化数据理解和JSON输出能力,适用于多样化的系统提示词场景。
Qwen2-0.5B-Instruct-GGUF - 高性能轻量级开源语言模型 支持多种量化等级
自然语言处理开源项目量化模型Qwen2GithubHuggingface模型语言模型GGUF格式
Qwen2-0.5B-Instruct模型提供多种GGUF格式量化版本,从q2_k到q8_0不等。模型基于Transformer架构,使用SwiGLU激活和改进的分组查询注意力,支持多语言及代码处理。经过大规模预训练和监督微调,可通过llama.cpp部署,支持OpenAI API兼容调用。在WikiText困惑度测试中表现优秀,为轻量级开源语言模型应用提供了便利选择。
claude2-alpaca-13B-GGUF - 量化GGUF格式模型文件的功能概述与应用方法
Claude2 Alpaca 13BGPU加速模型兼容性Huggingface量化方法Github开源项目模型GGUF格式
Claude2 Alpaca 13B项目提供了多种量化的GGUF格式模型文件,用于实现硬件高效支持下的模型推理。项目由UMD的Tianyi Lab创建,并由TheBloke量化,提供多种参数选项以满足不同的推理需求。该模型兼容llama.cpp等第三方UI和库,广泛支持GPU加速,并涵盖下载范围从最小到超大内存需求的GGUF模型,适合多种使用场景。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号