#DeepSeek-Coder-V2
相关项目
DeepSeek-Coder-V2
DeepSeek-Coder-V2是一款性能出色的开源代码语言模型,在多项代码相关任务中展现了强大实力。该模型支持338种编程语言,拥有128K的上下文长度,采用混合专家(MoE)架构。提供16B和236B两种参数版本,在代码生成、补全和修复等任务中表现卓越,同时在数学推理和通用语言任务中也展现出强大能力,为代码智能领域带来重要进展。
DeepSeek-Coder-V2-Lite-Base
DeepSeek-Coder-V2-Lite-Base是一种先进的开源Mixture-of-Experts代码语言模型,专门用于代码和数学推理任务。它支持338种编程语言,拥有128K上下文长度,与DeepSeek-Coder-33B相比,在多领域性能显著提升。通过Huggingface平台,用户可轻松访问并进行推理,非常适合开发者和研究人员。
DeepSeek-Coder-V2-Lite-Instruct
DeepSeek-Coder-V2是一个开源的代码语言模型,支持338种编程语言,上下文长度达128K。该模型通过6万亿token的额外预训练,增强了编码和数学推理能力。在标准基准评估中,它在代码相关任务上的表现与GPT4-Turbo相当,甚至超越了一些闭源模型。DeepSeek-Coder-V2提供16B和236B两个版本,可在Hugging Face平台上获取。