项目介绍:Qwen2.5-Coder-7B-Instruct-GPTQ-Int4
背景介绍
Qwen2.5-Coder 是最新的 Qwen 大型语言模型系列,专注于代码生成(Code-Specific),其前身为 CodeQwen。此系列发布了三种基础语言模型和指令微调语言模型,分别为 1.5、7 和 32 亿参数版本(32 亿参数版本即将推出)。相对于 CodeQwen1.5,Qwen2.5-Coder 在多方面进行了显著提升:
- 在代码生成、代码推理和代码修复方面实现了显著的改进。其通过 Qwen2.5 优势,加大训练标记数至 5.5 万亿,包括源代码,文本代码基础合成数据等。
- 具备与真实应用场景对接的更强基础能力,比如代码代理(Code Agents),不仅提升编码能力,还保持数学和一般能力的优势。
- 支持长上下文的功能,最高可达 128K 标记。
此版本为 GPTQ 量化的 4 比特指令微调 7B Qwen2.5-Coder 模型,具有以下特点:
- 类型:因果语言模型
- 训练阶段:预训练与后训练
- 架构:结合 RoPE、SwiGLU、RMSNorm 和 Attention QKV 偏差的 Transformer
- 参数数量:7.61B
- 非嵌入参数数量:6.53B
- 层数:28
- 注意力头数(GQA):28(Q部分)和 4(KV部分)
- 上下文长度: 完整支持最多 131,072 个标记
- 量化:GPTQ 量化 4 比特
核心功能与收益
Qwen2.5-Coder 的设计和改进目标是为开发人员和研究人员提供更强大和灵活的工具。在真实应用中,其可以通过增强的代码生成能力和数学处理能力显著提升开发效率,并且支持处理长文本,更加适合现代开发需求。
快速上手
要快速使用 Qwen2.5-Coder,可以使用基础代码片段展示如何加载分词器和模型并生成内容。以下是示例代码(为了简单易懂,代码已经被省略,具体参见原文中的代码片段)。
处理长文本
当前的 config.json
配置支持的上下文长度为 32,768 标记。为了处理超过 32,768 标记的大规模输入,使用了 YaRN 技术,可以显著提升模型在长文本上的外推性能。
项目链接与更多信息
更多详细信息,可以访问项目的博客、GitHub、文档、Arxiv 论文等平台获取,这些资源提供了 Qwen2.5-Coder 的深度评估结果和性能表现。
引用
如果发现该项目对您的研究或工作有所帮助,欢迎进行引用,以表达对开发团队努力的支持。
总之,Qwen2.5-Coder 不仅为代码生成提供了强大的支持,还为许多领域的应用开发提供了坚实的技术基础。对于希望在复杂的代码应用中获得更智能工具的开发人员来说,这是一个非常值得关注的项目。