#代码生成模型
starcoder2 - 先进的多语言代码生成模型家族
StarCoder 2代码生成模型机器学习自然语言处理大规模语言模型Github开源项目
StarCoder2是一系列代码生成模型,包括3B、7B和15B参数规模。模型在600多种编程语言和自然语言文本上训练,使用分组查询注意力机制,具有16,384个token的上下文窗口。支持代码补全、多GPU部署和量化推理,提供使用说明和微调指南。StarCoder2在代码生成任务中表现优异,是开发者的有力工具。
starcoder2-15b - 基于15B参数训练的多语言代码生成模型
编程语言人工智能模型深度学习代码生成模型StarCoder2GithubHuggingface开源项目
starcoder2-15b是NVIDIA开发的代码生成模型,支持600+种编程语言,采用GQA和FIM技术训练。模型具有16K token上下文窗口,基于4万亿以上的代码数据集训练。支持多种精度和量化部署方案,遵循BigCode OpenRAIL-M许可协议,具备代码溯源功能。