热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#DeepSeek-Coder-V2
DeepSeek-Coder-V2: 突破闭源模型在代码智能领域的壁垒
2 个月前
DeepSeek-Coder-V2是一个开源的混合专家(MoE)代码语言模型,在代码相关任务中达到了与GPT4-Turbo相媲美的性能,为代码智能领域带来了突破性进展。
DeepSeek-Coder-V2
MoE模型
代码智能
开源模型
AI模型
Github
开源项目
2 个月前
相关项目
DeepSeek-Coder-V2
DeepSeek-Coder-V2是一款性能出色的开源代码语言模型,在多项代码相关任务中展现了强大实力。该模型支持338种编程语言,拥有128K的上下文长度,采用混合专家(MoE)架构。提供16B和236B两种参数版本,在代码生成、补全和修复等任务中表现卓越,同时在数学推理和通用语言任务中也展现出强大能力,为代码智能领域带来重要进展。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号