Logo

Firefly-LLaMA2-Chinese: 低资源高效的开源中文大语言模型

Firefly-LLaMA2-Chinese: 低资源高效的开源中文大语言模型

在人工智能和自然语言处理领域,大语言模型(Large Language Models, LLMs)的发展日新月异。近期,一个名为Firefly-LLaMA2-Chinese的开源项目引起了广泛关注。这个项目专注于低资源增量预训练,旨在为中文用户提供高效、强大的大语言模型。本文将深入介绍Firefly-LLaMA2-Chinese项目的背景、特点、评测结果以及使用方法。

项目背景与简介

Firefly-LLaMA2-Chinese项目由YeungNLP团队开发,是Firefly项目的延续。该项目的核心目标是通过低资源增量预训练的方式,为用户提供高质量的中英双语大语言模型。

项目的主要特点包括:

  1. 支持对Baichuan2、Qwen、InternLM等原生中文模型进行增量预训练
  2. 可对LLaMA2、Falcon等英文模型进行中文词表扩充,然后进行增量预训练
  3. 开源了Firefly-LLaMA2-Chinese模型,包括7B和13B的Base和Chat版本
  4. 使用22GB中英文预训练语料对模型进行增量预训练
  5. 利用大规模中英文多轮对话指令对模型进行训练
  6. 在多个榜单评测和人工评测中表现优异

Firefly-LLaMA2-Chinese logo

模型训练与评测

训练过程

Firefly-LLaMA2-Chinese的训练过程主要包括以下步骤:

  1. 中文词表扩充: 对LLaMA2进行中文词表扩充,提高模型在中文上的编解码效率。使用Chinese-LLaMA-Alpaca-2项目扩充后的词表。

  2. 增量预训练: 使用22GB中英文语料,对扩充词表后的模型进行增量预训练,采用自回归任务。

  3. 指令微调: 使用两百多万条中英文多轮对话指令数据,对增量预训练模型进行指令微调。

值得注意的是,整个训练过程仅使用了最多4V100 GPU,相比其他类似项目(如Ziya的160A100, Linly的32*A100),Firefly-LLaMA2-Chinese的训练资源需求大大降低,体现了其低资源高效的特点。

评测结果

Firefly-LLaMA2-Chinese在多个权威榜单和人工评测中均表现优异:

  1. Open LLM Leaderboard:

    • Firefly-LLaMA2-13B-Chat模型在Average指标上达到59.05分
    • 超越了chinese-alpaca-2-13b、openbuddy-llama2-13b-v8.1等多个知名模型
  2. CMMLU榜单:

    • Firefly-LLaMA2-13B-Chat模型得分39.47
    • Firefly-Baichuan2-13B模型得分高达56.83,在OpenCompass的CMMLU榜单上位列第8
  3. 人工评测:

    • 构建了包含13种评测任务的评测集,每种任务10条数据,共130条
    • 与Linly-LLaMA2-13B对比: Firefly-LLaMA2-13B-Chat以33.08%获胜、60.77%平局、6.15%失败的成绩胜出
    • 与Llama2-Chat-13B对比: Firefly-LLaMA2-13B-Chat以66.15%获胜、30.77%平局、3.08%失败的成绩大幅领先

这些评测结果充分证明了Firefly-LLaMA2-Chinese模型的强大性能和广泛适用性。

技术细节与创新

Firefly-LLaMA2-Chinese项目在技术实现上有诸多亮点:

  1. 词表扩充优化:

    • 扩充后的词表大大提高了模型对中文的编解码效率
    • 在CNews数据集上测试,token数量由2.98亿减少为1.37亿,长度减少约54.11%
    • 不仅提高了训练和推理效率,还变相提高了模型的最大长度
  2. 数据处理:

    • 预训练数据集命名为firefly-pretrain-dataset,包含CLUE、ThucNews、CNews、COIG、维基百科等多个开源数据集
    • 指令微调数据主要包括UltraChat、Moss、school math等,经过清洗、过滤、采样、合并等处理
  3. 训练参数:

    • 两个阶段的训练长度均为1024
    • LoRA rank=64, LoRA alpha=16
    • 7B与13B模型,最终参与训练的参数量分别约为612.9M和816.6M
  4. 训练loss曲线:

    • 展现出良好的收敛性
    • 7B和13B模型分别对应粉色和橙色曲线

Training loss curve

使用指南

对于有兴趣使用或进一步开发Firefly-LLaMA2-Chinese的研究者和开发者,项目提供了详细的使用指南:

  1. 数据格式与处理:

    • 支持jsonl、csv、txt三种格式的预训练数据
    • 使用滑动窗口形式截取训练数据,可自定义窗口长度和滑动步长
    • 提供数据缓存机制,加速后续训练
  2. 增量预训练:

    • 提供了全量参数微调的命令和参数配置说明
    • 可根据需求调整学习率、batch size、训练轮次等参数
  3. 指令微调:

    • 使用Firefly项目的QLoRA流程代码进行指令微调
  4. 模型推理:

    • 提供了多种推理方式,包括命令行交互、Web UI demo等
    • 支持多种推理加速技术,如int8量化、FastChat等

结语

Firefly-LLaMA2-Chinese项目为中文自然语言处理领域带来了一个强大而高效的开源工具。通过低资源增量预训练的方式,该项目不仅实现了出色的模型性能,还大大降低了训练成本,使得更多研究者和开发者能够参与到大语言模型的研究与应用中来。

随着项目的不断发展和完善,我们可以期待Firefly-LLaMA2-Chinese在更多领域发挥其潜力,为中文自然语言处理技术的进步做出更大贡献。无论是学术研究还是产业应用,这个开源项目都将是一个值得关注和利用的宝贵资源。

欢迎感兴趣的读者访问Firefly-LLaMA2-Chinese的GitHub仓库以获取更多详细信息,参与项目开发,或在自己的研究和应用中使用这一强大的中文大语言模型。

最新项目

Project Cover
豆包MarsCode
豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。
Project Cover
AI写歌
Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。
Project Cover
商汤小浣熊
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
Project Cover
有言AI
有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。
Project Cover
Kimi
Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。
Project Cover
吐司
探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。
Project Cover
SubCat字幕猫
SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。
Project Cover
AIWritePaper论文写作
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。
Project Cover
稿定AI
稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号