#Qwen
Qwen2.5-7B-Instruct-AWQ - 优化的大规模语言模型,支持长文本处理与多语言生成
指令跟随Qwen2.5多语言支持长文本处理模型Github开源项目QwenHuggingface
Qwen2.5 增强版在知识获取、编程和数学能力上有显著提升,支持最大128K的长文本处理及29种语言,优化用于指令追踪和生成结构化数据,尤其适合聊天机器人应用。
Replete-LLM-V2.5-Qwen-7b-GGUF - Qwen-7b模型GGUF量化版本集合 适配多种硬件配置
显存优化机器学习GithubHuggingfaceQwen量化模型开源项目模型GGUF
Replete-LLM-V2.5-Qwen-7b-GGUF是经LLAMA.cpp量化处理的Qwen-7b模型系列,提供24种不同量化版本。从15.24GB的F16到2.78GB的IQ2_M,涵盖多种规格以适应不同硬件。支持CPU和GPU部署,并为ARM架构优化。采用imatrix量化方案,附有详细性能说明,便于选择合适版本。
Qwen2.5-72B-Instruct-GGUF - 新一代多语言模型,提升指令理解与长文本处理
长上下文支持Qwen多语言支持Github开源项目指令调优模型语言模型Huggingface
Qwen2.5系列模型通过改进的专家模型,增强编码和数学性能,支持29种语言,提供最长128K的上下文处理与8K tokens的生成能力。其提升的指令跟随与结构化数据生成能力适合多样化系统提示,使聊天机器人更准确。72B模型采用GGUF格式和现代架构技术,提供流畅对话体验。
task-13-Qwen-Qwen1.5-0.5B - Qwen1.5-0.5B模型的参数高效微调项目
PEFT人工智能QwenGithub机器学习开源项目Huggingface模型模型卡片
该项目利用PEFT库对Qwen1.5-0.5B模型进行参数高效微调。通过这种技术,开发者可以在保留模型核心能力的同时,针对特定任务优化性能。尽管项目细节尚待完善,但它为AI研究人员和开发者提供了一个灵活的框架,用于进行模型定制和应用开发。这种方法有望在降低计算资源需求的同时,实现模型在特定领域的性能提升。