项目介绍:Awesome Chinese LLM
简介
Awesome Chinese LLM 是一个致力于收集和整理与中文大型语言模型(Large Language Model,LLM)相关的开源模型、应用、数据集和教程的项目。目前已经收录了超过100个这样的资源。自从ChatGPT等大语言模型展现出令人惊叹的类通用人工智能(AGI)能力之后,大语言模型的研究和应用在自然语言处理领域中掀起了一股新的浪潮。特别是一些较小规模的LLM,如ChatGLM、LLaMA,让普通用户也能参与其中,带来了众多基于LLM的二次微调或应用案例。
项目目标
本项目的目标是通过提供详尽的中文LLM资源集合,帮助那些有兴趣进行LLM相关工作的人们更方便地获取所需资料。同时,项目也鼓励社区中的成员贡献尚未收录的开源模型、应用或数据集。
常见底座模型
以下是几种常见的中文LLM底座模型的概览:
底座 | 包含模型 | 模型参数大小 | 训练token数 | 训练最大长度 | 是否可商用 |
---|---|---|---|---|---|
ChatGLM | ChatGLM/2/3/4 Base&Chat | 6B | 1T/1.4 | 2K/32K | 可商用 |
LLaMA | LLaMA/2/3 Base&Chat | 7B/8B/13B/33B/70B | 1T/2T | 2k/4k | 部分可商用 |
Baichuan | Baichuan/2 Base&Chat | 7B/13B | 1.2T/1.4T | 4k | 可商用 |
Qwen | Qwen/1.5/2/2.5 Base&Chat&VL | 7B/14B/32B/72B/110B | 2.2T/3T/18T | 8k/32k | 可商用 |
BLOOM | BLOOM | 1B/7B/176B-MT | 1.5T | 2k | 可商用 |
Aquila | Aquila/2 Base/Chat | 7B/34B | - | 2k | 可商用 |
InternLM | InternLM/2/2.5 Base/Chat/VL | 7B/20B | - | 200k | 可商用 |
Mixtral | Base&Chat | 8x7B | - | 32k | 可商用 |
Yi | Base&Chat | 6B/9B/34B | 3T | 200k | 可商用 |
DeepSeek | Base&Chat | 1.3B/7B/33B/67B | - | 4k | 可商用 |
XVERSE | Base&Chat | 7B/13B/65B/A4.2B | 2.6T/3.2T | 8k/16k/256k | 可商用 |
目录
项目中还详细收录了关于模型、应用、数据集、训练及推理框架、LLM评测和教程的具体信息,以下是项目的主要部分:
- 模型:包括各种文本和多模态LLM模型。
- 应用:涵盖多个领域如医疗、法律、金融、教育、科技、电商、网络安全、农业等等。
- 数据集:包含预训练、SFT、偏好数据集等。
- 训练与微调框架。
- 推理部署框架。
- 评测。
- 教程:从基础知识到应用实战教程。
参与与贡献
用户如果觉得项目有帮助,也可以通过给项目点Star来支持,并且欢迎提供更多的开源资源信息(例如模型、应用、数据集)来丰富该项目,只需通过GitHub发起Pull Request即可,贡献时需包含仓库链接、star数及相关简介。
项目团队鼓励各类共享协作,通过丰富的社区贡献,将中文LLM的研究与应用资源分享给更多的开发者与用户。对中文自然语言处理怀有激情的开发者,可以通过该项目获取最新、最丰富的LLM资源。
最后
Awesome Chinese LLM 项目是一个以整合性和开放性为导向,合力推进中文语言模型发展的集合项目,是中文语言模型研究者和开发者不可或缺的资源。