MoE-LLaVA

MoE-LLaVA

高效视觉语言模型的新方向

MoE-LLaVA项目采用混合专家技术,实现了高效的大规模视觉语言模型。该模型仅使用3B稀疏激活参数就达到了与7B参数模型相当的性能,在多项视觉理解任务中表现优异。项目提供简单的基线方法,通过稀疏路径学习多模态交互,可在8张A100 GPU上1天内完成训练。MoE-LLaVA为构建高性能、低参数量的视觉语言模型探索了新的方向。

MoE-LLaVA大视觉语言模型多模态学习稀疏激活性能表现Github开源项目
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/e476d298-c90c-412c-b278-d4b252f65865.png" width="250" style="margin-bottom: 0.2;"/> <p> <h2 align="center"> <a href="https://arxiv.org/abs/2401.15947">MoE-LLaVA: 大型视觉语言模型的专家混合系统</a></h2> <h5 align="center"> 如果您喜欢我们的项目,请在GitHub上给我们一个星标 ⭐ 以获取最新更新。 </h2> <h5 align="center">

hf_space Replicate演示和云API 在Colab中打开 hf_space arXiv youtube 机器之心 许可证 访问量 GitHub问题 GitHub已关闭问题 <br>

</h5> <details open><summary>💡 我还有其他可能引起您兴趣的视觉语言项目 ✨。 </summary><p> <!-- may -->

Open-Sora-Plan <br> github github <br>

Video-LLaVA: 通过对齐后投影学习统一视觉表示 <br> 林斌, 叶阳, 朱斌, 崔嘉熙, 宁木南, 金鹏, 袁黎 <br> github github arXiv <br>

LanguageBind: 通过基于语言的语义对齐将视频-语言预训练扩展到N模态 <br> 朱斌, 林斌, 宁木南, 闫洋, 崔嘉熙, 王鸿发, 庞亚天, 江文豪, 张俊武, 李宗威, 张万才, 李志峰, 刘伟, 袁黎 <br> github github arXiv <br>

</p></details>

📣 新闻

  • ⏳⏳⏳ 正在训练一个在更高图像分辨率(如768 × 768)下的更强大模型。
  • ⏳⏳⏳ 正在训练MoE-LLaVA-Qwen1.5以更好地支持中文。
  • [2024.03.16] 🎉 我们发布了所有第二阶段模型,请查看我们的模型库
  • [2024.02.03] 🎉 我们发布了一个更强大的MoE-LLaVA-StableLM。通过使用2.0B稀疏激活参数,其平均性能接近LLaVA-1.5-7B,请查看我们的模型库
  • [2024.02.02] 🤝 欢迎体验由@camenduru创建的Replicate演示和云API在Colab中打开,他慷慨地支持了我们的研究!
  • [2024.02.01] 🔥 无法访问HF的用户现在可以通过<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">模型范围下载模型,请查看我们的模型库
  • [2024.01.30] 🔥 我们发布了一个更强大的MoE-LLaVA-Phi2。通过使用3.6B稀疏激活参数,其平均性能超过了LLaVA-1.5-7B,请查看我们的模型库
  • [2024.01.27] 🤗 Hugging Face演示所有代码和数据集现已可用!欢迎关注 👀 本仓库以获取最新更新。

😮 亮点

MoE-LLaVA在多模态学习中表现出色。

🔥 高性能,但参数更少

  • 仅使用3B稀疏激活参数,MoE-LLaVA在各种视觉理解数据集上表现与LLaVA-1.5-7B相当,甚至在物体幻觉基准测试中超过了LLaVA-1.5-13B。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/484ff482-c319-4bf8-9a6b-b907e5938f51.jpg" width=55%> </p>

🚀 简单基线,通过稀疏路径学习多模态交互。

  • 通过添加一个简单的MoE调优阶段,我们可以在8个A100 GPU上在1天内完成MoE-LLaVA的训练。
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/953f22a8-346c-4534-9dc4-b4fb6c3fc00b.jpg" width=65%> </p>

🤗 演示

Gradio Web UI <a href='https://github.com/gradio-app/gradio'><img src='https://img.shields.io/github/stars/gradio-app/gradio'></a>

强烈推荐通过以下命令试用我们的Web演示,它包含了MoE-LLaVA当前支持的所有功能。我们还在Huggingface Spaces提供了在线演示

# 使用phi2 deepspeed --include localhost:0 moellava/serve/gradio_web_server.py --model-path "LanguageBind/MoE-LLaVA-Phi2-2.7B-4e" # 使用qwen deepspeed --include localhost:0 moellava/serve/gradio_web_server.py --model-path "LanguageBind/MoE-LLaVA-Qwen-1.8B-4e" # 使用stablelm deepspeed --include localhost:0 moellava/serve/gradio_web_server.py --model-path "LanguageBind/MoE-LLaVA-StableLM-1.6B-4e"

CLI推理

# 使用phi2 deepspeed --include localhost:0 moellava/serve/cli.py --model-path "LanguageBind/MoE-LLaVA-Phi2-2.7B-4e" --image-file "image.jpg" # 使用qwen deepspeed --include localhost:0 moellava/serve/cli.py --model-path "LanguageBind/MoE-LLaVA-Qwen-1.8B-4e" --image-file "image.jpg" # 使用stablelm deepspeed --include localhost:0 moellava/serve/cli.py --model-path "LanguageBind/MoE-LLaVA-StableLM-1.6B-4e" --image-file "image.jpg"
<img src="https://yellow-cdn.veclightyear.com/835a84d5/c2530427-c6b8-4170-b317-e63bfad5706a.gif" />

🐳 模型库

模型激活参数Transformers(HF)ModelScope(HF)平均VQAv2GQAVizWizSQA-IMGT-VQAPOPEMMEMM-BenchMM-Vet
MoE-LLaVA-1.6B×4-Top22.0B🤗LanguageBind/MoE-LLaVA-StableLM-1.6B-4e<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-StableLM-1.6B-4e57.376.760.336.262.650.185.71318.160.226.9
MoE-LLaVA-1.8B×4-Top22.2B🤗LanguageBind/MoE-LLaVA-Qwen-1.8B-4e<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-Qwen-1.8B-4e56.776.261.532.663.148.087.01291.659.625.3
MoE-LLaVA-2.7B×4-Top23.6B🤗LanguageBind/MoE-LLaVA-Phi2-2.7B-4e<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-Phi2-2.7B-4e61.177.661.443.968.551.486.31423.065.234.3
MoE-LLaVA-1.6B×4-Top2-3842.0B🤗LanguageBind/MoE-LLaVA-StableLM-1.6B-4e-384<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-StableLM-1.6B-4e-38460.078.661.540.563.954.385.91335.763.332.3
MoE-LLaVA-2.7B×4-Top2-3843.6B🤗LanguageBind/MoE-LLaVA-Phi2-2.7B-4e-384<img src="https://yellow-cdn.veclightyear.com/835a84d5/24e88293-1b1e-4dea-a8cb-958c0836a5c8.png" width="20px" style="max-width: 100%;">PKU-YuanLab/MoE-LLaVA-Phi2-2.7B-4e-38462.979.962.643.770.357.085.71431.368.035.9
LLaVA-1.57B🤗liuhaotian/llava-v1.5-7b-62.078.562.050.066.858.285.91510.764.330.5
<details>

🚨 请查看 https://github.com/PKU-YuanGroup/MoE-LLaVA/issues/27。

<summary>第二阶段模型</summary> | 模型 | 检查点 | |----------|-----------| | MoE-LLaVA-1.6B×4-Top2 | [LanguageBind/MoE-LLaVA-StableLM-Stage2](https://huggingface.co/LanguageBind/MoE-LLaVA-StableLM-Stage2) | | MoE-LLaVA-1.6B×4-Top2-384 | [LanguageBind/MoE-LLaVA-StableLM-Stage2-384](https://huggingface.co/LanguageBind/MoE-LLaVA-StableLM-Stage2-384) | | MoE-LLaVA-1.8B×4-Top2 | [LanguageBind/MoE-LLaVA-Qwen-Stage2](https://huggingface.co/LanguageBind/MoE-LLaVA-Qwen-Stage2) | | MoE-LLaVA-2.7B×4-Top2 | [LanguageBind/MoE-LLaVA-Phi2-Stage2](https://huggingface.co/LanguageBind/MoE-LLaVA-Phi2-Stage2) | | MoE-LLaVA-2.7B×4-Top2-384 | [LanguageBind/MoE-LLaVA-Phi2-Stage2-384](https://huggingface.co/LanguageBind/MoE-LLaVA-Phi2-Stage2-384) | </details> <details> <summary>预训练模型</summary>
模型检查点
MoE-LLaVA-1.6B×4-Top2LanguageBind/MoE-LLaVA-StableLM-Pretrain
MoE-LLaVA-1.6B×4-Top2-384LanguageBind/MoE-LLaVA-StableLM-384-Pretrain
MoE-LLaVA-1.8B×4-Top2LanguageBind/MoE-LLaVA-Qwen-Pretrain
MoE-LLaVA-2.7B×4-Top2LanguageBind/MoE-LLaVA-Phi2-Pretrain
MoE-LLaVA-2.7B×4-Top2-384LanguageBind/MoE-LLaVA-Phi2-384-Pretrain
</details>

⚙️ 环境要求和安装

我们建议的环境要求如下:

  • Python == 3.10
  • Pytorch == 2.0.1
  • CUDA 版本 >= 11.7
  • Transformers == 4.37.0
  • Tokenizers==0.15.1
  • 安装所需的包:
git clone https://github.com/PKU-YuanGroup/MoE-LLaVA cd MoE-LLaVA conda create -n moellava python=3.10 -y conda activate moellava pip install --upgrade pip # 启用 PEP 660 支持 pip install -e . pip install -e ".[train]" pip install flash-attn --no-build-isolation # 以下是可选的。针对 Qwen 模型。 git clone https://github.com/Dao-AILab/flash-attention cd flash-attention && pip install . # 以下是可选的。安装它们可能会很慢。 # pip install csrc/layer_norm # 如果 flash-attn 的版本高于 2.1.1,则不需要以下操作。 # pip install csrc/rotary

[!警告]

<div align="left"> <b> 🚨 我们发现使用 flash attention2 会导致性能下降。 </b> </div>

🗝️ 训练和验证

训练和验证的说明在 TRAIN.mdEVAL.md 中。

💡 自定义你的 MoE-LLaVA

说明在 CUSTOM.md 中。

😍 可视化

说明在 VISUALIZATION.md 中。

🤖 API

我们开源了所有代码。 如果你想在本地加载模型(例如 LanguageBind/MoE-LLaVA-Phi2-2.7B-4e),你可以使用以下代码片段。

使用以下命令运行代码。

deepspeed --include localhost:0 predict.py
import torch from PIL import Image from moellava.constants import IMAGE_TOKEN_INDEX, DEFAULT_IMAGE_TOKEN from moellava.conversation import conv_templates, SeparatorStyle from moellava.model.builder import load_pretrained_model from moellava.utils import disable_torch_init from moellava.mm_utils import tokenizer_image_token, get_model_name_from_path, KeywordsStoppingCriteria def main(): disable_torch_init() image = 'moellava/serve/examples/extreme_ironing.jpg' inp = '这张图片有什么不寻常之处?' model_path = 'LanguageBind/MoE-LLaVA-Phi2-2.7B-4e' # LanguageBind/MoE-LLaVA-Qwen-1.8B-4e 或 LanguageBind/MoE-LLaVA-StableLM-1.6B-4e device = 'cuda' load_4bit, load_8bit = False, False # 待修复:Deepspeed 是否支持 4 位或 8 位? model_name = get_model_name_from_path(model_path) tokenizer, model, processor, context_len = load_pretrained_model(model_path, None, model_name, load_8bit, load_4bit, device=device) image_processor = processor['image'] conv_mode = "phi" # qwen 或 stablelm conv = conv_templates[conv_mode].copy() roles = conv.roles image_tensor = image_processor.preprocess(Image.open(image).convert('RGB'), return_tensors='pt')['pixel_values'].to(model.device, dtype=torch.float16) print(f"{roles[1]}: {inp}") inp = DEFAULT_IMAGE_TOKEN + '\n' + inp conv.append_message(conv.roles[0], inp) conv.append_message(conv.roles[1], None) prompt = conv.get_prompt() input_ids = tokenizer_image_token(prompt, tokenizer, IMAGE_TOKEN_INDEX, return_tensors='pt').unsqueeze(0).cuda() stop_str = conv.sep if conv.sep_style != SeparatorStyle.TWO else conv.sep2 keywords = [stop_str] stopping_criteria = KeywordsStoppingCriteria(keywords, tokenizer, input_ids) with torch.inference_mode(): output_ids = model.generate( input_ids, images=image_tensor, do_sample=True, temperature=0.2, max_new_tokens=1024, use_cache=True, stopping_criteria=[stopping_criteria]) outputs = tokenizer.decode(output_ids[0, input_ids.shape[1]:], skip_special_tokens=True).strip() print(outputs) if __name__ == '__main__': main()

🙌 相关项目

  • Video-LLaVA 这个框架使模型能够高效地利用统一的视觉标记。
  • LanguageBind 一个开源的基于语言的五模态检索框架。

👍 致谢

  • LLaVA 我们基于此代码库构建,它是一个高效的大型语言和视觉助手。

🔒 许可证

  • 本项目的大部分内容根据 LICENSE 文件中的 Apache 2.0 许可证发布。
  • 本服务是一个仅供非商业用途的研究预览,受 LLaMA 模型许可证、OpenAI 生成数据的使用条款以及 ShareGPT 的隐私惯例约束。如果您发现任何潜在违规行为,请与我们联系。

✏️ 引用

如果您发现我们的论文和代码对您的研究有用,请考虑给予星标 :star: 和引用 :pencil:。

@article{lin2024moe, title={MoE-LLaVA: Mixture of Experts for Large Vision-Language Models}, author={Lin, Bin and Tang, Zhenyu and Ye, Yang and Cui, Jiaxi and Zhu, Bin and Jin, Peng and Zhang, Junwu and Ning, Munan and Yuan, Li}, journal={arXiv preprint arXiv:2401.15947}, year={2024} }
@article{lin2023video, title={Video-LLaVA: Learning United Visual Representation by Alignment Before Projection}, author={Lin, Bin and Zhu, Bin and Ye, Yang and Ning, Munan and Jin, Peng and Yuan, Li}, journal={arXiv preprint arXiv:2311.10122}, year={2023} }

✨ 星标历史

星标历史

🤝 贡献者

<a href="https://github.com/PKU-YuanGroup/MoE-LLaVA/graphs/contributors"> <img src="https://contrib.rocks/image?repo=PKU-YuanGroup/MoE-LLaVA" /> </a>

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多