#DeepSeek-Coder-V2

DeepSeek-Coder-V2 - 开源代码语言模型
DeepSeek-Coder-V2MoE模型代码智能开源模型AI模型Github开源项目
DeepSeek-Coder-V2是一款性能出色的开源代码语言模型,在多项代码相关任务中展现了强大实力。该模型支持338种编程语言,拥有128K的上下文长度,采用混合专家(MoE)架构。提供16B和236B两种参数版本,在代码生成、补全和修复等任务中表现卓越,同时在数学推理和通用语言任务中也展现出强大能力,为代码智能领域带来重要进展。
DeepSeek-Coder-V2-Lite-Base - 强大开源语言模型,支持代码与数学任务
Github数学推理模型开源开源项目语言模型代码智能DeepSeek-Coder-V2Huggingface
DeepSeek-Coder-V2-Lite-Base是一种先进的开源Mixture-of-Experts代码语言模型,专门用于代码和数学推理任务。它支持338种编程语言,拥有128K上下文长度,与DeepSeek-Coder-33B相比,在多领域性能显著提升。通过Huggingface平台,用户可轻松访问并进行推理,非常适合开发者和研究人员。
DeepSeek-Coder-V2-Lite-Instruct - 开源代码模型支持338种编程语言
模型DeepSeek-Coder-V2代码生成Github开源项目Huggingface开源模型AI编程自然语言处理
DeepSeek-Coder-V2是一个开源的代码语言模型,支持338种编程语言,上下文长度达128K。该模型通过6万亿token的额外预训练,增强了编码和数学推理能力。在标准基准评估中,它在代码相关任务上的表现与GPT4-Turbo相当,甚至超越了一些闭源模型。DeepSeek-Coder-V2提供16B和236B两个版本,可在Hugging Face平台上获取。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号