Project Icon

GPT4Tools

大语言模型自学使用多模态工具的创新系统

GPT4Tools是基于Vicuna (LLaMA)的创新系统,通过71K自建指令数据实现对多个视觉基础模型的智能控制。该系统能自动决策和利用不同视觉模型,实现对话中的图像交互。项目支持通过自我指导和LoRA微调教授大语言模型使用工具,为图像相关需求提供高效解决方案。GPT4Tools的开源性和灵活性使其成为AI研究与应用的重要工具。

GPT4Tools: 通过自我指导教导大语言模型使用工具

Lin SongYanwei LiRui Yang、Sijie Zhao、Yixiao GeXiu LiYing Shan

GPT4Tools是一个可以控制多个视觉基础模型的集中系统。它基于Vicuna (LLaMA)和71K自建指令数据。通过分析语言内容,GPT4Tools能够自动决策、控制和利用不同的视觉基础模型,允许用户在对话中与图像交互。通过这种方法,GPT4Tools为在对话中满足各种图像相关需求提供了无缝高效的解决方案。与之前的工作不同,我们支持用户通过简单的自我指导和LoRA微调来教导他们自己的大语言模型使用工具。

YouTube arXiv

更新

  • 🔥 我们更新了适用于vicuna-v1.5的新代码和模型!
  • 🔥 我们的论文被NIPS 2023接受!
  • 🔥 我们现在发布了论文和新的演示,包括LLAVA、OPT、LlaMA和Vicuna。
  • 🔥 我们发布了使用Vicuna-13B预训练的GPT4Tools模型,并发布了自我指导的数据集。查看博客和演示。

演示

我们在本节提供了一些使用GPT4Tools的精选示例。更多示例可以在我们的项目页面找到。欢迎尝试我们的在线演示

更多演示
segmentdetect kps
solve problemstyle transfer

数据集

数据文件名大小OneDriveGoogle Drive
gpt4tools_71k.json229 MB链接链接
gpt4tools_val_seen.json--链接链接
gpt4tools_test_unseen.json--链接链接
  • gpt4tools_71k.json包含我们用于微调GPT4Tools模型的71K指令跟随数据。

  • gpt4tools_val_seen.json是用于验证的手动清理的指令数据,包括与gpt4tools_71k.json中工具相关的指令。

  • gpt4tools_test_unseen.json是用于测试的清理过的指令数据,包括一些在gpt4tools_71k.json中不存在的工具相关指令。

data.md展示了如何生成、格式化和清理数据。

模型

GTP4Tools主要包含三个部分:用于指令的LLM、用于适配的LoRA和用于提供功能的Visual Agent。这是一个灵活且可扩展的系统,可以轻松扩展以支持更多工具和功能。例如,用户可以用自己的模型替换现有的LLM或工具,或向系统添加新工具。唯一需要做的是用提供的指令微调LoRA,这会教导LLM使用提供的工具。

image GPT4Tools 基于 Vicuna,我们发布了 GPT4Tools 的 LoRA 权重以遵守 LLaMA 模型许可。您可以将我们的 LoRA 权重与 Vicuna 权重合并以获得 GPT4Tools 权重。

开始使用

环境

git clone https://github.com/AILab-CVC/GPT4Tools
cd GPT4Tools
pip install -r requirements.txt

权重

  1. 下载 vicuna-7b-v1.5vicuna-13b-v1.5
# 下载到您的缓存目录
python3 scripts/download.py \
	--model-names "lmsys/vicuna-13b-v1.5" "lmsys/vicuna-7b-v1.5" \
	--cache-dir $your_cache_dir
  1. 从以下链接下载 gpt4tools LoRA 权重:
模型OneDriveGoogle DriverHuggingface
vicuna-7b-v1.5-gpt4tools链接链接
vicuna-13b-v1.5-gpt4tools链接链接

旧版权重可以在这里找到。

工具

GPT4Tools 支持 22 种工具。详情请查看 tools.md。 首次使用工具时,需要将工具的权重下载到缓存中。如果您不想将它们存储在默认缓存中,请修改 shell 环境变量:

export TRANSFORMERS_CACHE=${your_transformers_cache}
export HUGGINGFACE_HUB_CACHE=${your_diffusers_cache}

此外,您还可以将权重下载到自定义缓存中。

# 下载 huggingface 模型
python3 scripts/download.py \
	--model-names "Salesforce/blip-image-captioning-base" "Salesforce/blip-vqa-base" "timbrooks/instruct-pix2pix" "runwayml/stable-diffusion-v1-5" "runwayml/stable-diffusion-inpainting" "lllyasviel/ControlNet" "fusing/stable-diffusion-v1-5-controlnet-canny" "fusing/stable-diffusion-v1-5-controlnet-mlsd" "fusing/stable-diffusion-v1-5-controlnet-hed" "fusing/stable-diffusion-v1-5-controlnet-scribble" "fusing/stable-diffusion-v1-5-controlnet-openpose" "fusing/stable-diffusion-v1-5-controlnet-seg" "fusing/stable-diffusion-v1-5-controlnet-depth" "fusing/stable-diffusion-v1-5-controlnet-normal" "sam" "groundingdino" \
	--cache-dir $your_cache_dir

使用 Web GUI 提供服务

按照 scripts/demo.sh 或以下代码在您自己的设备上创建 gradio 界面:

# 1 个 GPU 的建议
python gpt4tools_demo.py \
	--base_model $path_to_vicuna_with_tokenizer \
	--lora_model $path_to_lora_weights \
	--llm_device "cpu" \ 
	--load "Text2Box_cuda:0,Segmenting_cuda:0,Inpainting_cuda:0,ImageCaptioning_cuda:0" \ 
	--cache-dir $your_cache_dir \
	--server-port 29509 \
	--share
# 4 个 GPU 的建议
python gpt4tools_demo.py \
	--base_model $path_to_vicuna_with_tokenizer
	--lora_model $path_to_lora_weights \
	--llm_device "cuda:3" \
	--load "Text2Box_cuda:0,Segmenting_cuda:0,Inpainting_cuda:0,ImageCaptioning_cuda:0,Text2Image_cuda:1,VisualQuestionAnswering_cuda:1,InstructPix2Pix_cuda:2,SegText2Image_cuda:2,Image2Pose_cpu,PoseText2Image_cuda:2" \
	--cache-dir $your_cache_dir \
	--server-port 29509 \
	--share

您可以通过在 gpt4tools_demo.py--load 参数后指定 {tools_name}_{devices} 来自定义使用的工具。tools_nametools.md 中有说明。

微调

gpt4tools_71k.json 下载到 ./datasets 后,您可以按照 scripts/finetune_lora.sh 或运行以下代码来微调您的模型:

deepspeed train.py \
	--base_model $path_to_vicuna_with_tokenizer \
	--data_path $path_to_gpt4tools_71k.json \
	--deepspeed "scripts/zero2.json" \
	--output_dir output/gpt4tools \
	--num_epochs 6 \
	--per_device_train_batch_size 1 \
	--per_device_eval_batch_size 4 \
	--gradient_accumulation_steps 16 \
	--model_max_length 2048 \
	--lora_target_modules '[q_proj,k_proj,v_proj,o_proj]' \
	--lora_r 16 \
	--learning_rate 3e-4 \
	--lazy_preprocess True \
	--cache_dir $your_cache_dir \
	--report_to 'tensorboard' \
	--gradient_checkpointing True
超参数全局批量大小学习率最大长度权重衰减LoRA 注意力维度 (lora_r)LoRA 缩放 alpha(lora_alpha)LoRA dropout (lora_dropout)应用 LoRA 的模块 (lora_target_modules)
GPT4Tools & Vicuna-13B5123e-420480.016160.05[q_proj,k_proj,v_proj,o_proj]

如果您想评估模型使用工具的成功率,请点击这里

致谢

  • VisualChatGPT:它连接了 ChatGPT 和一系列视觉基础模型,使聊天过程中能够发送和接收图像。
  • Vicuna:Vicuna 的语言能力非常出色和令人惊叹。而且它是开源的!
  • Alpaca-LoRA:在消费级硬件上对 LLaMA 进行指令微调。 如果您在研究或应用中使用我们的GPT4Tools,请引用:
@misc{gpt4tools,
  title = {GPT4Tools: 通过自我指导教导大语言模型使用工具},
  author={杨睿, 宋林, 李彦伟, 赵思捷, 葛益骁, 李秀, 单瑛},
  journal={arXiv预印本 arXiv:2305.18752},
  year={2023}
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号