MoE-LLaVA

MoE-LLaVA

高效视觉语言模型的新方向

MoE-LLaVA项目采用混合专家技术,实现了高效的大规模视觉语言模型。该模型仅使用3B稀疏激活参数就达到了与7B参数模型相当的性能,在多项视觉理解任务中表现优异。项目提供简单的基线方法,通过稀疏路径学习多模态交互,可在8张A100 GPU上1天内完成训练。MoE-LLaVA为构建高性能、低参数量的视觉语言模型探索了新的方向。

MoE-LLaVA大视觉语言模型多模态学习稀疏激活性能表现Github开源项目
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/e476d298-c90c-412c-b278-d4b252f65865.png" width="250" style="margin-bottom: 0.2;"/> <p> <h2 align="center"> <a href="https://arxiv.org/abs/2401.15947">MoE-LLaVA: 大型视觉语言模型的专家混合系统</a></h2> <h5 align="center"> 如果您喜欢我们的项目,请在GitHub上给我们一个星标 ⭐ 以获取最新更新。 </h2> <h5 align="center">

hf_space Replicate演示和云API 在Colab中打开 hf_space arXiv youtube 机器之心 许可证 访问量 GitHub问题 GitHub已关闭问题 <br>

</h5> <details open><summary>💡 我还有其他可能引起您兴趣的视觉语言项目 ✨。 </summary><p> <!-- may -->

Open-Sora-Plan <br> github github <br>

Video-LLaVA: 通过对齐后投影学习统一视觉表示 <br> 林斌, 叶阳, 朱斌, 崔嘉熙, 宁木南, 金鹏, 袁黎 <br> github github arXiv <br>

LanguageBind: 通过基于语言的语义对齐将视频-语言预训练扩展到N模态 <br> 朱斌, 林斌, 宁木南, 闫洋, 崔嘉熙, 王鸿发, 庞亚天, 江文豪, 张俊武, 李宗威, 张万才, 李志峰, 刘伟, 袁黎 <br> github github arXiv <br>

</p></details>

📣 新闻

  • ⏳⏳⏳ 正在训练一个在更高图像分辨率(如768 × 768)下的更强大模型。
  • ⏳⏳⏳ 正在训练MoE-LLaVA-Qwen1.5以更好地支持中文。
  • [2024.03.16] 🎉 我们发布了所有第二阶段模型,请查看我们的模型库
  • [2024.02.03] 🎉 我们发布了一个更强大的MoE-LLaVA-StableLM。通过使用2.0B稀疏激活参数,其平均性能接近LLaVA-1.5-7B,请查看我们的模型库
  • [2024.02.02] 🤝 欢迎体验由@camenduru创建的Replicate演示和云API在Colab中打开,他慷慨地支持了我们的研究!
  • [2024.02.01] 🔥 无法访问HF的用户现在可以通过<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">模型范围下载模型,请查看我们的模型库
  • [2024.01.30] 🔥 我们发布了一个更强大的MoE-LLaVA-Phi2。通过使用3.6B稀疏激活参数,其平均性能超过了LLaVA-1.5-7B,请查看我们的模型库
  • [2024.01.27] 🤗 Hugging Face演示所有代码和数据集现已可用!欢迎关注 👀 本仓库以获取最新更新。

😮 亮点

MoE-LLaVA在多模态学习中表现出色。

🔥 高性能,但参数更少

  • 仅使用3B稀疏激活参数,MoE-LLaVA在各种视觉理解数据集上表现与LLaVA-1.5-7B相当,甚至在物体幻觉基准测试中超过了LLaVA-1.5-13B。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/484ff482-c319-4bf8-9a6b-b907e5938f51.jpg" width=55%> </p>

🚀 简单基线,通过稀疏路径学习多模态交互。

  • 通过添加一个简单的MoE调优阶段,我们可以在8个A100 GPU上在1天内完成MoE-LLaVA的训练。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/953f22a8-346c-4534-9dc4-b4fb6c3fc00b.jpg" width=65%> </p>

🤗 演示

Gradio Web UI <a href='https://github.com/gradio-app/gradio'><img src='https://img.shields.io/github/stars/gradio-app/gradio'></a>

强烈推荐通过以下命令试用我们的Web演示,它包含了MoE-LLaVA当前支持的所有功能。我们还在Huggingface Spaces提供了在线演示

# 使用phi2 deepspeed --include localhost:0 moellava/serve/gradio_web_server.py --model-path "LanguageBind/MoE-LLaVA-Phi2-2.7B-4e" # 使用qwen deepspeed --include localhost:0 moellava/serve/gradio_web_server.py --model-path "LanguageBind/MoE-LLaVA-Qwen-1.8B-4e" # 使用stablelm deepspeed --include localhost:0 moellava/serve/gradio_web_server.py --model-path "LanguageBind/MoE-LLaVA-StableLM-1.6B-4e"

CLI推理

# 使用phi2 deepspeed --include localhost:0 moellava/serve/cli.py --model-path "LanguageBind/MoE-LLaVA-Phi2-2.7B-4e" --image-file "image.jpg" # 使用qwen deepspeed --include localhost:0 moellava/serve/cli.py --model-path "LanguageBind/MoE-LLaVA-Qwen-1.8B-4e" --image-file "image.jpg" # 使用stablelm deepspeed --include localhost:0 moellava/serve/cli.py --model-path "LanguageBind/MoE-LLaVA-StableLM-1.6B-4e" --image-file "image.jpg"
<img src="https://yellow-cdn.veclightyear.com/835a84d5/c2530427-c6b8-4170-b317-e63bfad5706a.gif" />

🐳 模型库

模型激活参数Transformers(HF)ModelScope(HF)平均VQAv2GQAVizWizSQA-IMGT-VQAPOPEMMEMM-BenchMM-Vet
MoE-LLaVA-1.6B×4-Top22.0B🤗LanguageBind/MoE-LLaVA-StableLM-1.6B-4e<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-StableLM-1.6B-4e57.376.760.336.262.650.185.71318.160.226.9
MoE-LLaVA-1.8B×4-Top22.2B🤗LanguageBind/MoE-LLaVA-Qwen-1.8B-4e<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-Qwen-1.8B-4e56.776.261.532.663.148.087.01291.659.625.3
MoE-LLaVA-2.7B×4-Top23.6B🤗LanguageBind/MoE-LLaVA-Phi2-2.7B-4e<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-Phi2-2.7B-4e61.177.661.443.968.551.486.31423.065.234.3
MoE-LLaVA-1.6B×4-Top2-3842.0B🤗LanguageBind/MoE-LLaVA-StableLM-1.6B-4e-384<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-StableLM-1.6B-4e-38460.078.661.540.563.954.385.91335.763.332.3
MoE-LLaVA-2.7B×4-Top2-3843.6B🤗LanguageBind/MoE-LLaVA-Phi2-2.7B-4e-384<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-Phi2-2.7B-4e-38462.979.962.643.770.357.085.71431.368.035.9
LLaVA-1.57B🤗liuhaotian/llava-v1.5-7b-62.078.562.050.066.858.285.91510.764.330.5
<details>

🚨 请查看 https://github.com/PKU-YuanGroup/MoE-LLaVA/issues/27。

<summary>第二阶段模型</summary> | 模型 | 检查点 | |----------|-----------| | MoE-LLaVA-1.6B×4-Top2 | [LanguageBind/MoE-LLaVA-StableLM-Stage2](https://huggingface.co/LanguageBind/MoE-LLaVA-StableLM-Stage2) | | MoE-LLaVA-1.6B×4-Top2-384 | [LanguageBind/MoE-LLaVA-StableLM-Stage2-384](https://huggingface.co/LanguageBind/MoE-LLaVA-StableLM-Stage2-384) | | MoE-LLaVA-1.8B×4-Top2 | [LanguageBind/MoE-LLaVA-Qwen-Stage2](https://huggingface.co/LanguageBind/MoE-LLaVA-Qwen-Stage2) | | MoE-LLaVA-2.7B×4-Top2 | [LanguageBind/MoE-LLaVA-Phi2-Stage2](https://huggingface.co/LanguageBind/MoE-LLaVA-Phi2-Stage2) | | MoE-LLaVA-2.7B×4-Top2-384 | [LanguageBind/MoE-LLaVA-Phi2-Stage2-384](https://huggingface.co/LanguageBind/MoE-LLaVA-Phi2-Stage2-384) | </details> <details> <summary>预训练模型</summary>
模型检查点
MoE-LLaVA-1.6B×4-Top2LanguageBind/MoE-LLaVA-StableLM-Pretrain
MoE-LLaVA-1.6B×4-Top2-384LanguageBind/MoE-LLaVA-StableLM-384-Pretrain
MoE-LLaVA-1.8B×4-Top2LanguageBind/MoE-LLaVA-Qwen-Pretrain
MoE-LLaVA-2.7B×4-Top2LanguageBind/MoE-LLaVA-Phi2-Pretrain
MoE-LLaVA-2.7B×4-Top2-384LanguageBind/MoE-LLaVA-Phi2-384-Pretrain
</details>

⚙️ 环境要求和安装

我们建议的环境要求如下:

  • Python == 3.10
  • Pytorch == 2.0.1
  • CUDA 版本 >= 11.7
  • Transformers == 4.37.0
  • Tokenizers==0.15.1
  • 安装所需的包:
git clone https://github.com/PKU-YuanGroup/MoE-LLaVA cd MoE-LLaVA conda create -n moellava python=3.10 -y conda activate moellava pip install --upgrade pip # 启用 PEP 660 支持 pip install -e . pip install -e ".[train]" pip install flash-attn --no-build-isolation # 以下是可选的。针对 Qwen 模型。 git clone https://github.com/Dao-AILab/flash-attention cd flash-attention && pip install . # 以下是可选的。安装它们可能会很慢。 # pip install csrc/layer_norm # 如果 flash-attn 的版本高于 2.1.1,则不需要以下操作。 # pip install csrc/rotary

[!警告]

<div align="left"> <b> 🚨 我们发现使用 flash attention2 会导致性能下降。 </b> </div>

🗝️ 训练和验证

训练和验证的说明在 TRAIN.mdEVAL.md 中。

💡 自定义你的 MoE-LLaVA

说明在 CUSTOM.md 中。

😍 可视化

说明在 VISUALIZATION.md 中。

🤖 API

我们开源了所有代码。 如果你想在本地加载模型(例如 LanguageBind/MoE-LLaVA-Phi2-2.7B-4e),你可以使用以下代码片段。

使用以下命令运行代码。

deepspeed --include localhost:0 predict.py
import torch from PIL import Image from moellava.constants import IMAGE_TOKEN_INDEX, DEFAULT_IMAGE_TOKEN from moellava.conversation import conv_templates, SeparatorStyle from moellava.model.builder import load_pretrained_model from moellava.utils import disable_torch_init from moellava.mm_utils import tokenizer_image_token, get_model_name_from_path, KeywordsStoppingCriteria def main(): disable_torch_init() image = 'moellava/serve/examples/extreme_ironing.jpg' inp = '这张图片有什么不寻常之处?' model_path = 'LanguageBind/MoE-LLaVA-Phi2-2.7B-4e' # LanguageBind/MoE-LLaVA-Qwen-1.8B-4e 或 LanguageBind/MoE-LLaVA-StableLM-1.6B-4e device = 'cuda' load_4bit, load_8bit = False, False # 待修复:Deepspeed 是否支持 4 位或 8 位? model_name = get_model_name_from_path(model_path) tokenizer, model, processor, context_len = load_pretrained_model(model_path, None, model_name, load_8bit, load_4bit, device=device) image_processor = processor['image'] conv_mode = "phi" # qwen 或 stablelm conv = conv_templates[conv_mode].copy() roles = conv.roles image_tensor = image_processor.preprocess(Image.open(image).convert('RGB'), return_tensors='pt')['pixel_values'].to(model.device, dtype=torch.float16) print(f"{roles[1]}: {inp}") inp = DEFAULT_IMAGE_TOKEN + '\n' + inp conv.append_message(conv.roles[0], inp) conv.append_message(conv.roles[1], None) prompt = conv.get_prompt() input_ids = tokenizer_image_token(prompt, tokenizer, IMAGE_TOKEN_INDEX, return_tensors='pt').unsqueeze(0).cuda() stop_str = conv.sep if conv.sep_style != SeparatorStyle.TWO else conv.sep2 keywords = [stop_str] stopping_criteria = KeywordsStoppingCriteria(keywords, tokenizer, input_ids) with torch.inference_mode(): output_ids = model.generate( input_ids, images=image_tensor, do_sample=True, temperature=0.2, max_new_tokens=1024, use_cache=True, stopping_criteria=[stopping_criteria]) outputs = tokenizer.decode(output_ids[0, input_ids.shape[1]:], skip_special_tokens=True).strip() print(outputs) if __name__ == '__main__': main()

🙌 相关项目

  • Video-LLaVA 这个框架使模型能够高效地利用统一的视觉标记。
  • LanguageBind 一个开源的基于语言的五模态检索框架。

👍 致谢

  • LLaVA 我们基于此代码库构建,它是一个高效的大型语言和视觉助手。

🔒 许可证

  • 本项目的大部分内容根据 LICENSE 文件中的 Apache 2.0 许可证发布。
  • 本服务是一个仅供非商业用途的研究预览,受 LLaMA 模型许可证、OpenAI 生成数据的使用条款以及 ShareGPT 的隐私惯例约束。如果您发现任何潜在违规行为,请与我们联系。

✏️ 引用

如果您发现我们的论文和代码对您的研究有用,请考虑给予星标 :star: 和引用 :pencil:。

@article{lin2024moe, title={MoE-LLaVA: Mixture of Experts for Large Vision-Language Models}, author={Lin, Bin and Tang, Zhenyu and Ye, Yang and Cui, Jiaxi and Zhu, Bin and Jin, Peng and Zhang, Junwu and Ning, Munan and Yuan, Li}, journal={arXiv preprint arXiv:2401.15947}, year={2024} }
@article{lin2023video, title={Video-LLaVA: Learning United Visual Representation by Alignment Before Projection}, author={Lin, Bin and Zhu, Bin and Ye, Yang and Ning, Munan and Jin, Peng and Yuan, Li}, journal={arXiv preprint arXiv:2311.10122}, year={2023} }

✨ 星标历史

星标历史

🤝 贡献者

<a href="https://github.com/PKU-YuanGroup/MoE-LLaVA/graphs/contributors"> <img src="https://contrib.rocks/image?repo=PKU-YuanGroup/MoE-LLaVA" /> </a>

编辑推荐精选

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

TRELLIS

TRELLIS

用于可扩展和多功能 3D 生成的结构化 3D 潜在表示

TRELLIS 是一个专注于 3D 生成的项目,它利用结构化 3D 潜在表示技术,实现了可扩展且多功能的 3D 生成。项目提供了多种 3D 生成的方法和工具,包括文本到 3D、图像到 3D 等,并且支持多种输出格式,如 3D 高斯、辐射场和网格等。通过 TRELLIS,用户可以根据文本描述或图像输入快速生成高质量的 3D 资产,适用于游戏开发、动画制作、虚拟现实等多个领域。

ai-agents-for-beginners

ai-agents-for-beginners

10 节课教你开启构建 AI 代理所需的一切知识

AI Agents for Beginners 是一个专为初学者打造的课程项目,提供 10 节课程,涵盖构建 AI 代理的必备知识,支持多种语言,包含规划设计、工具使用、多代理等丰富内容,助您快速入门 AI 代理领域。

AEE

AEE

AI Excel全自动制表工具

AEE 在线 AI 全自动 Excel 编辑器,提供智能录入、自动公式、数据整理、图表生成等功能,高效处理 Excel 任务,提升办公效率。支持自动高亮数据、批量计算、不规则数据录入,适用于企业、教育、金融等多场景。

UI-TARS-desktop

UI-TARS-desktop

基于 UI-TARS 视觉语言模型的桌面应用,可通过自然语言控制计算机进行多模态操作。

UI-TARS-desktop 是一款功能强大的桌面应用,基于 UI-TARS(视觉语言模型)构建。它具备自然语言控制、截图与视觉识别、精确的鼠标键盘控制等功能,支持跨平台使用(Windows/MacOS),能提供实时反馈和状态显示,且数据完全本地处理,保障隐私安全。该应用集成了多种大语言模型和搜索方式,还可进行文件系统操作。适用于需要智能交互和自动化任务的场景,如信息检索、文件管理等。其提供了详细的文档,包括快速启动、部署、贡献指南和 SDK 使用说明等,方便开发者使用和扩展。

Wan2.1

Wan2.1

开源且先进的大规模视频生成模型项目

Wan2.1 是一个开源且先进的大规模视频生成模型项目,支持文本到图像、文本到视频、图像到视频等多种生成任务。它具备丰富的配置选项,可调整分辨率、扩散步数等参数,还能对提示词进行增强。使用了多种先进技术和工具,在视频和图像生成领域具有广泛应用前景,适合研究人员和开发者使用。

爱图表

爱图表

全流程 AI 驱动的数据可视化工具,助力用户轻松创作高颜值图表

爱图表(aitubiao.com)就是AI图表,是由镝数科技推出的一款创新型智能数据可视化平台,专注于为用户提供便捷的图表生成、数据分析和报告撰写服务。爱图表是中国首个在图表场景接入DeepSeek的产品。通过接入前沿的DeepSeek系列AI模型,爱图表结合强大的数据处理能力与智能化功能,致力于帮助职场人士高效处理和表达数据,提升工作效率和报告质量。

Qwen2.5-VL

Qwen2.5-VL

一款强大的视觉语言模型,支持图像和视频输入

Qwen2.5-VL 是一款强大的视觉语言模型,支持图像和视频输入,可用于多种场景,如商品特点总结、图像文字识别等。项目提供了 OpenAI API 服务、Web UI 示例等部署方式,还包含了视觉处理工具,有助于开发者快速集成和使用,提升工作效率。

下拉加载更多