mllm 是一个快速、轻量级的多模态大语言模型推理引擎,专为移动和边缘设备设计。
- 纯C/C++实现,无依赖
- 针对多模态大语言模型(如fuyu-8B)进行优化
- 支持:ARM NEON 和 x86 AVX2
- 4位和6位整数量化
等等...为什么需要设备端多模态大语言模型? - 它是智能个人助理、基于文本的图像搜索/检索、屏幕视觉问答以及更多激动人心的移动应用的关键构建模块,无需泄露您的私人数据(聊天历史、截图、拍摄的照片等)。
最新更新
- [2024年8月15日] 支持新模型:Phi 3 mini https://github.com/UbiquitousLearning/mllm/pull/119
- [2024年8月10日] 支持高通NPU:https://github.com/UbiquitousLearning/mllm/pull/112 | 试用 | 论文
- [2024年7月17日] 支持新模型:StableLM V2 1.6B https://github.com/UbiquitousLearning/mllm/pull/94
- [2024年7月2日] 支持新模型:Yi V1.5 6B https://github.com/UbiquitousLearning/mllm/pull/88
- [2024年5月29日] 支持新模型:Mistral V0.2 7B https://github.com/UbiquitousLearning/mllm/pull/83
- [2024年5月4日] 支持新模型:QWen V1.5 0.5B https://github.com/UbiquitousLearning/mllm/pull/79
- [2024年4月9日] 支持新模型:Gemma 2B https://github.com/UbiquitousLearning/mllm/pull/75
目录
Android 演示
大语言模型聊天演示 | 图像理解演示 | UI界面理解演示 |
支持的模型
快速开始
获取代码
git clone https://github.com/UbiquitousLearning/mllm
cd mllm
检查先决条件
构建mllm需要以下工具:
- gcc(11.4+) / clang (11.0+)
- CMake >= 3.18
- Android NDK Toolchains >= 26
注意,由于Apple LLVM编译器的原因,在macOS上构建OpenMP库可能会失败,因此我们默认在macOS上禁用OpenMP,你可能会在macOS上遇到性能较慢的情况。建议在Linux上构建mllm。
使用QNN在Hexagon NPU上加速运行Qwen
注意:
QNN后端是可以进行端到端推理的初步版本。它仍在积极开发中,以实现更好的性能并支持更多模型。
我们支持使用高通QNN在搭载骁龙8 Gen3的设备上运行Qwen-1.5-1.8B-Chat,以获得Hexagon NPU加速。QNN环境设置和设计的详细信息在这里。预填充阶段由QNN和CPU执行,推理阶段由CPU执行。
使用QNN后端构建目标。
cd ../script
./build_qnn_anroid.sh
从这里下载模型,或使用以下指令
mkdir ../models && cd ../models
# 下载NPU使用的int8模型和CPU使用的q4k模型
wget https://huggingface.co/mllmTeam/qwen-1.5-1.8b-chat-mllm/resolve/main/qwen-1.5-1.8b-chat-int8.mllm?download=true -O qwen-1.5-1.8b-chat-int8.mllm
wget https://huggingface.co/mllmTeam/qwen-1.5-1.8b-chat-mllm/resolve/main/qwen-1.5-1.8b-chat-q4k.mllm?download=true -O qwen-1.5-1.8b-chat-q4k.mllm
在至少16GB内存的安卓手机上运行。
cd ../script
./run_qwen_npu.sh
可执行文件中有两个参数。-s
用于预填充的序列长度,在我们提供的演示中默认值为64。-c
用于QNN预填充选项的类型,当设置为1时,输入将被分割成许多长度为32的序列块,并以流水线方式执行。当设置为0时,输入将在一个块中执行。
结果如下:
> ./main_qwen_npu -s 64 -c 1
[Q] <|im_start|>system
You are a helpful assistant.<|im_end|>
<|im_start|>user
Give me a short introduction to large language model.<|im_end|>
<|im_start|>assistant
[A] 大语言模型是一种旨在理解和生成人类语言文本的人工智能语言模型。这些模型通常通过大量文本数据(如书籍、文章和其他书面材料)进行训练,以学习人类语言的模式和结构。它们结合使用自然语言处理(NLP)
在Android的CPU上运行
构建
export ANDROID_NDK=/path/to/your/ndk
cd scripts
./build_android.sh
运行Fuyu-8B
从这里下载模型,或使用以下指令
mkdir ../models && cd ../models
# 下载fuyu-8b-q4_k.mllm
wget https://huggingface.co/mllmTeam/fuyu-8b-mllm/resolve/main/fuyu-8b-q4_k.mllm?download=true -O fuyu-8b-q4_k.mllm
在至少12GB内存的安卓手机上运行。
cd ../script
./run_fuyu.sh
结果如下:
> ./demo_fuyu
[Q] [../assets/bus.png]Generate a coco-style caption.
[A] 一辆蓝色巴士在路上行驶,旁边是人行道。
[Q] [../assets/two_cats.jpg]What's this?
[A] 两只猫躺在粉色毯子上。
运行LLaMA-2-7B
从这里下载模型,或使用以下指令
mkdir ../models && cd ../models
# 下载llama-2-7b-chat-q4_k.mllm
wget https://huggingface.co/mllmTeam/llama-2-7b-mllm/resolve/main/llama-2-7b-chat-q4_k.mllm?download=true -O llama-2-7b-chat-q4_k.mllm
在至少12GB内存的安卓手机上运行。
cd ../script
./run_llama.sh
结果如下:
> ./demo_llama
[Q] 你好,你是谁?
[A]
我是一个机器人,我在这里帮助回答你的问题并提供信息。我只是一个人工智能,我没有像人类那样的个人经历或感受,但我在这里帮助你解答任何问题。你有什么具体想知道或讨论的吗?
[问] 你能做什么?
[答]
我可以帮助完成各种各样的任务,包括:
* 回答各种主题的问题,如科学、历史、技术等。
* 提供不同领域的信息,如文化、娱乐和生活方式。
* 协助语言相关的任务,如翻译文本或改进语法和句法。
* 生成文本,如文章、故事,甚至整本书。
* 辅助编程
[问] 请介绍一下北京邮电大学。
[答]
北京邮电大学(BUPT)是一所位于中国北京的公立研究型大学。它成立于1955年,是中国顶尖大学之一,在工程、技术和电信领域有着强大的优势。
北京邮电大学提供广泛的本科和研究生课程,涵盖计算机科学、电气工程、软件工程和通信工程等领域。该大学
## 路线图
- 更多后端如QNN
- 更多模型如PandaGPT
- 更多优化如LUT-GEMM
- [更多...](https://ubiquitouslearning.github.io/mllm_website/roadmap/roadmap/)
## 文档
更多信息请参阅[文档](https://ubiquitouslearning.github.io/mllm_website/introduction/getstarted/)
## 贡献
在贡献之前请阅读[贡献指南](https://ubiquitouslearning.github.io/mllm_website/contributing/contributing/)。
## 致谢
mllm在ARM CPU上重用了[ggml](https://github.com/ggerganov/ggml)的许多底层内核实现。它还利用了[stb](https://github.com/nothings/stb)和[wenet](https://github.com/wenet-e2e/wenet)来预处理图像和音频。mllm还受益于以下项目:[llama.cpp](https://github.com/ggerganov/llama.cpp)和[MNN](https://github.com/alibaba/MNN)。
## 许可证
### 整体项目许可证
本项目根据MIT许可证的条款进行许可。请查看根目录中的[LICENSE](https://github.com/UbiquitousLearning/mllm/blob/main/LICENSE)文件以获取MIT许可证的完整文本。
### Apache 2.0许可的组件
本项目的某些组件([wenet](https://github.com/wenet-e2e/wenet))根据Apache许可证2.0进行许可。这些组件在各自的子目录中明确标识,并附有Apache许可证2.0的副本。有关Apache许可证2.0的完整文本,请参阅相关子目录中的[LICENSE-APACHE](third_party/wenet_audio/LICENSE)文件。