Artigenz-Coder-DS-6.7B项目介绍
Artigenz-Coder-DS-6.7B是一个由Artigenz团队开发的代码生成模型。该项目旨在创建一系列可以在本地计算机上快速运行的代码生成模型。作为该系列的第一个模型,Artigenz-Coder-DS-6.7B拥有67亿参数,仅需13GB的内存占用,这使得它在保持强大性能的同时,也能够在普通计算机上高效运行。
模型背景
Artigenz-Coder-DS-6.7B是在DeepSeek-Coder-6.7B-Base的基础上进行微调得到的。团队承诺将很快开源用于训练该模型的数据集和脚本,这将为开源社区提供宝贵的资源。目前,该模型的权重已经在Hugging Face平台上公开,研究者和开发者可以自由访问和使用。
团队成员
该项目由一支才华横溢的团队开发,成员包括:
- Nikita Agarwal:AI研究员,曾在微软担任数据科学家,毕业于印度海德拉巴信息技术学院。
- Vivek Verma:佛罗里达国际大学博士后研究员,拥有202次学术引用。
- Nalin Abrol:前Plivo(YC S21)软件工程师,曾在OHBM 2019发表论文,毕业于印度海德拉巴信息技术学院。
此外,项目还得到了以下专家的特别支持:
- Manish Shrivastava:印度海德拉巴信息技术学院自然语言处理方向助理教授。
- Manas Kumar Verma:Algouniversity(YC S21)的CEO。
- Nikhil Tadigoppula:AI研究员,2013年国际信息学奥林匹克竞赛铜牌得主。
未来展望
Artigenz团队计划在不久的将来发布用于训练Artigenz-Coder-DS-6.7B的数据集和微调脚本,供开源社区自由使用。他们的下一步计划是开发Artigenz系列的1B和3B模型,长期目标是实现快速的本地代码生成推理。
致谢
Artigenz团队对开源社区表示深深的感谢,特别是Bigcode Project、Magicoder、Hugging Face、DeepSeek、Wizard Coder和Code Llama等项目,它们为研究社区构建强大的大型语言模型提供了可能。团队致力于为缩小专有模型和开源模型之间的差距做出贡献。
联系方式
对于有兴趣了解更多信息或寻求合作的人,可以通过LinkedIn联系Nikita Agarwal(nikita-agawal-iiith),或发送电子邮件至agarwal1503.nikita@gmail.com。
Artigenz-Coder-DS-6.7B项目代表了在代码生成领域的一个重要进展,它不仅提供了强大的性能,还考虑到了在普通硬件上的可用性。随着更多资源的开放和未来模型的开发,这个项目有望为编程领域带来更多创新和便利。