MobileLLM

MobileLLM

轻量高效的移动设备语言模型

MobileLLM是一个针对移动设备优化的大型语言模型项目。该模型通过SwiGLU激活函数、深窄架构、嵌入共享和分组查询注意力等技术,在亿级参数规模下实现了高性能。MobileLLM在零样本常识推理任务中表现出色,不仅在125M和350M参数规模上超越了现有最先进模型,还成功扩展至600M、1B和1.5B参数规模,展示了其在移动设备应用中的潜力。

MobileLLM语言模型AI模型深度学习神经网络Github开源项目

MobileLLM

本仓库包含了我们在ICML 2024发表的论文"MobileLLM: 优化小于十亿参数的语言模型用于设备端场景"中介绍的MobileLLM的训练代码。

在这项工作中,我们全面考虑了多个设计因素,以获得高质量的、参数少于十亿的大语言模型。我们整合了(1) SwiGLU激活函数、(2)深而窄的架构、(3)嵌入共享、(4)分组查询注意力来构建MobileLLM。MobileLLM-125M/350M在零样本常识推理任务上比之前的125M/350M最先进模型分别提高了2.7%/4.3%的准确率。在我们更新的版本中,我们进一步证明了我们的设计理念可以有效扩展到更大的模型,MobileLLM-600M/1B/1.5B取得了最先进的结果。

<div align=center> <img width=50% src="https://yellow-cdn.veclightyear.com/835a84d5/2e0d8abd-0453-4c25-8214-943d1f017a38.png"/> </div>

引用

如果您发现我们的代码对您的研究有用,请考虑引用:

@article{liu2024mobilellm,
    title={MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases},
    author={Liu, Zechun and Zhao, Changsheng and Iandola, Forrest和Lai, Chen和Tian, Yuandong和Fedorov, Igor和Xiong, Yunyang和Chang, Ernie和Shi, Yangyang和Krishnamoorthi, Raghuraman和others},
    journal={arXiv preprint arXiv:2402.14905},
    year={2024}
}

运行

步骤1. 要求:

  • python 3.9, pytorch >= 2.0
  • pip install -r requirement.txt

步骤2. 数据预处理

将分词后的数据集划分或对您自己的数据集进行分词,并均匀分布到总训练节点数量上,每个节点由1x8个GPU组成。然后,将数据组织成以下结构:

  • basepath
    • 1
      • xxx.jsonl
    • 2
      • xxx.jsonl
    • ...
    • #nodes
      • xxx.jsonl

jsonl文件的每一行是一个分词数据的键值对{"token_ids": [1,2,3,4,...]}。

我们的训练代码与https://github.com/LLM360/amber-data-prep中的数据预处理方法兼容。

步骤3. 训练脚本

提供了pretrain.sh脚本,用于在1x8节点设置上使用torchrun启动训练。可以修改此脚本以调整--nnodes参数和其他设置,以适应不同的多节点配置,如使用slurm或torchx。脚本中的学习率适用于1x8节点,批量大小为32。如果您增加节点数量或批量大小,需要线性增加学习率。

运行步骤:

  • pretrain.sh文件中,指定--train_data_local_path为步骤2中预处理的数据路径,并将--input_model_filename指定为./configs/{model_size}/
  • 运行bash pretrain.sh

其他

模型权重仍在法律审查中。如有任何问题,请随时发送电子邮件至(zechunliu at meta dot com)和(cszhao at meta dot com)

训练成本

使用32个NVIDIA A100 80G GPU在1T个token上训练MobileLLM需要以下天数。

125M350M600M1B1.5B
~3天~6天~8天~12天~18天

零样本常识推理任务结果

MobileLLM-125M

模型boolqpiqasiqahellaswagwinograndearc_easyarc_challengeobqa平均
OPT-125M41.325.257.562.041.931.131.250.842.6
GPT-neo-125M40.724.861.362.541.929.731.650.742.9
Pythia-160M40.025.359.562.041.529.931.250.942.5
MobileLLM-125M43.927.160.265.342.438.939.553.146.3
MobileLLM-LS-125M45.828.760.465.742.939.541.152.147.0

MobileLLM-350M

模型boolqpiqasiqahellaswagwinograndearc_easyarc_challengeobqa平均
OPT-350M41.925.754.064.842.636.233.352.443.9
Pythia-410M47.130.355.367.243.140.136.253.446.6
MobileLLM-350M53.833.562.468.644.749.640.057.651.3
MobileLLM-LS-350M54.432.562.869.844.150.645.857.252.1

MobileLLM-600M

模型boolqpiqasiqahellaswagwinograndearc_easyarc_challengeobqa平均
Qwen1.5-500M54.732.146.968.946.048.837.755.048.8
BLOOM-560M43.727.553.765.142.536.532.652.244.2
MobiLlama-800M52.031.754.673.043.352.342.556.350.7
MobileLLM-600M58.135.861.072.344.955.947.958.654.3

MobileLLM-1B

模型boolqpiqasiqahellaswagwinograndearc_easyarc_challengeobqa平均
Pythia-1B49.930.458.769.243.347.438.652.248.7
MobiLlama-1B59.738.459.274.544.962.043.759.055.2
Falcon-1B59.538.463.974.644.662.945.660.956.3
BLOOM-1.1B47.627.358.667.042.442.236.653.846.9
TinyLlama-1.1B59.237.158.172.943.959.144.758.854.2
MobileLLM-1B63.039.066.774.445.061.446.862.357.3

MobileLLM-1.5B

模型boolqpiqasiqahellaswagwinograndearc_easyarc_challengeobqa平均
GPT-neo-1.3B51.333.061.870.943.748.641.254.550.6
OPT-1.3B54.431.758.471.544.753.744.659.152.3
BLOOM-1.7B50.931.261.770.043.247.236.256.149.6
Qwen1.5-1.8B61.136.568.374.147.260.442.961.256.5
GPT-neo-2.7B55.834.362.472.943.655.640.057.952.8
OPT-2.7B56.634.661.874.545.660.248.259.655.1
Pythia-2.8B59.438.966.173.844.559.645.059.455.8
BLOOM-3B55.133.662.170.543.253.941.658.252.3
MobileLLM-1.5B67.540.965.774.846.464.550.564.759.4

致谢

本代码部分基于Hugging Face transformer仓库。

联系方式

Zechun Liu,Meta公司(zechunliu@meta.com

Changsheng Zhao,Meta公司(cszhao@meta.com

许可证

BiT目前采用CC-BY-NC 4.0许可证。

编辑推荐精选

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

TRELLIS

TRELLIS

用于可扩展和多功能 3D 生成的结构化 3D 潜在表示

TRELLIS 是一个专注于 3D 生成的项目,它利用结构化 3D 潜在表示技术,实现了可扩展且多功能的 3D 生成。项目提供了多种 3D 生成的方法和工具,包括文本到 3D、图像到 3D 等,并且支持多种输出格式,如 3D 高斯、辐射场和网格等。通过 TRELLIS,用户可以根据文本描述或图像输入快速生成高质量的 3D 资产,适用于游戏开发、动画制作、虚拟现实等多个领域。

ai-agents-for-beginners

ai-agents-for-beginners

10 节课教你开启构建 AI 代理所需的一切知识

AI Agents for Beginners 是一个专为初学者打造的课程项目,提供 10 节课程,涵盖构建 AI 代理的必备知识,支持多种语言,包含规划设计、工具使用、多代理等丰富内容,助您快速入门 AI 代理领域。

AEE

AEE

AI Excel全自动制表工具

AEE 在线 AI 全自动 Excel 编辑器,提供智能录入、自动公式、数据整理、图表生成等功能,高效处理 Excel 任务,提升办公效率。支持自动高亮数据、批量计算、不规则数据录入,适用于企业、教育、金融等多场景。

UI-TARS-desktop

UI-TARS-desktop

基于 UI-TARS 视觉语言模型的桌面应用,可通过自然语言控制计算机进行多模态操作。

UI-TARS-desktop 是一款功能强大的桌面应用,基于 UI-TARS(视觉语言模型)构建。它具备自然语言控制、截图与视觉识别、精确的鼠标键盘控制等功能,支持跨平台使用(Windows/MacOS),能提供实时反馈和状态显示,且数据完全本地处理,保障隐私安全。该应用集成了多种大语言模型和搜索方式,还可进行文件系统操作。适用于需要智能交互和自动化任务的场景,如信息检索、文件管理等。其提供了详细的文档,包括快速启动、部署、贡献指南和 SDK 使用说明等,方便开发者使用和扩展。

Wan2.1

Wan2.1

开源且先进的大规模视频生成模型项目

Wan2.1 是一个开源且先进的大规模视频生成模型项目,支持文本到图像、文本到视频、图像到视频等多种生成任务。它具备丰富的配置选项,可调整分辨率、扩散步数等参数,还能对提示词进行增强。使用了多种先进技术和工具,在视频和图像生成领域具有广泛应用前景,适合研究人员和开发者使用。

爱图表

爱图表

全流程 AI 驱动的数据可视化工具,助力用户轻松创作高颜值图表

爱图表(aitubiao.com)就是AI图表,是由镝数科技推出的一款创新型智能数据可视化平台,专注于为用户提供便捷的图表生成、数据分析和报告撰写服务。爱图表是中国首个在图表场景接入DeepSeek的产品。通过接入前沿的DeepSeek系列AI模型,爱图表结合强大的数据处理能力与智能化功能,致力于帮助职场人士高效处理和表达数据,提升工作效率和报告质量。

Qwen2.5-VL

Qwen2.5-VL

一款强大的视觉语言模型,支持图像和视频输入

Qwen2.5-VL 是一款强大的视觉语言模型,支持图像和视频输入,可用于多种场景,如商品特点总结、图像文字识别等。项目提供了 OpenAI API 服务、Web UI 示例等部署方式,还包含了视觉处理工具,有助于开发者快速集成和使用,提升工作效率。

下拉加载更多