#DeepSeek-Coder-V2

DeepSeek-Coder-V2: 突破闭源模型在代码智能领域的壁垒

2024年09月04日
Cover of DeepSeek-Coder-V2: 突破闭源模型在代码智能领域的壁垒
相关项目
Project Cover

DeepSeek-Coder-V2

DeepSeek-Coder-V2是一款性能出色的开源代码语言模型,在多项代码相关任务中展现了强大实力。该模型支持338种编程语言,拥有128K的上下文长度,采用混合专家(MoE)架构。提供16B和236B两种参数版本,在代码生成、补全和修复等任务中表现卓越,同时在数学推理和通用语言任务中也展现出强大能力,为代码智能领域带来重要进展。

Project Cover

DeepSeek-Coder-V2-Lite-Base

DeepSeek-Coder-V2-Lite-Base是一种先进的开源Mixture-of-Experts代码语言模型,专门用于代码和数学推理任务。它支持338种编程语言,拥有128K上下文长度,与DeepSeek-Coder-33B相比,在多领域性能显著提升。通过Huggingface平台,用户可轻松访问并进行推理,非常适合开发者和研究人员。

Project Cover

DeepSeek-Coder-V2-Instruct

DeepSeek-Coder-V2是一个开源的MoE代码语言模型,通过6万亿token的额外预训练,大幅提升了编码和数学推理能力。该模型支持338种编程语言,具有128K的上下文长度,在多项标准基准测试中表现优异。DeepSeek-Coder-V2不仅在代码相关任务中媲美GPT4-Turbo,还在某些方面超越了多个知名闭源模型。

Project Cover

DeepSeek-Coder-V2-Lite-Instruct

DeepSeek-Coder-V2是一个开源的代码语言模型,支持338种编程语言,上下文长度达128K。该模型通过6万亿token的额外预训练,增强了编码和数学推理能力。在标准基准评估中,它在代码相关任务上的表现与GPT4-Turbo相当,甚至超越了一些闭源模型。DeepSeek-Coder-V2提供16B和236B两个版本,可在Hugging Face平台上获取。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号