项目介绍:comfyui_LLM_party
项目概述
ComfyUI LLM Party 是一个基于 ComfyUI 的项目,旨在帮助用户构建完整的 LLM(大语言模型)工作流程。通过这个项目,用户可以轻松地将 LLM 工作流整合到他们现有的图像工作流中。该项目不仅适用于从最基本的工具调用和角色设置到创建独有的 AI 助理,还涵盖了行业特定的向量 RAG 和 GraphRAG,便于本地化管理行业知识库。
此外,项目支持从简单的单代理管道到复杂的代理-代理径向和环形交互模式的构建,更支持个人用户接入其社交应用(如 QQ、飞书、Discord)以及流媒体工作者所需的一站式 LLM + TTS + ComfyUI 工作流程。
无论是普通用户的初次应用搭建,还是科研工作者针对模型适配的参数调试,ComfyUI LLM Party 都能为您提供相应的解决方案。
快速开始
- API 及本地模型调用: 提供多种工作流模板,帮助用户快速集成和调用 LLM 功能,包括 API 调用、分布式格式调用本地 LLM、GGUF 格式调用等。
- API 配置: 用户需要根据不同的调用方式(如 API 调用、本地模型或 Ollama)填写相应的配置信息(如
base_url
和api_key
)。 - 安装与配置: 提供了一系列详细步骤,帮助用户在 ComfyUI 中配置和部署此项目,并安装所需的插件和模型。
最新更新
- 项目引入了一系列新功能,如 Fork 了 chatgpt-on-wechat 项目,并增加了支持一键调用的
party-on-wechat
。 - 增加了 In-Context-LoRA 掩码节点,用于生成一致的提示词。
- 提供了全新的前端组件,用户可以通过 FastAPI 和 Streamlit 实现与 ComfyUI 工作流的交互。
- 简化了模型加载节点,现在仅需选择模型名即可自动加载配置。
- 项目扩展了动态加载 lora 的能力,并根据不同需求提供了多样化的节点工具。
用户指南
本项目详细提供了如何使用不同节点的指导,并且为出现问题或有其它疑问的用户准备了 QQ 群、Discord 社区、视频教程等多种支持方式。
模型支持
ComfyUI LLM Party 支持多种模型调用方式,包括大多数本地模型和 API 调用。支持的模型涵盖了从 OpenAI 到本地主机化的多种替代方案,确保用户可以最大化地自由选择和使用最适合自己需求的模型。
下载与环境部署
提供详细的安装与配置指南,用户可以通过多种方式(如 ComfyUI Manager 或手动克隆)安装此项目,并在配置文件中输入相应的 APIKEY,以便完成对项目的启动和使用。
计划与声明
未来,项目计划包括更多的模型适配、代理构建方式、自动化功能以及知识库管理功能。此外,项目声明所有内容仅供参考,强调了项目的开源和社区贡献本质。
特别致谢
感谢所有对本项目有贡献的社区成员与个人,他们的努力使得 ComfyUI LLM Party 项目得以不断发展和丰富。