OpenAOE - 开启多模型AI对话新时代 🚀
OpenAOE是一个突破性的大语言模型群聊框架,让用户能够同时与多个AI模型进行对话交互。本文将为您详细介绍OpenAOE的特点、功能以及使用方法,帮助您快速掌握这一强大的AI对话工具。
OpenAOE是什么? 🤔
OpenAOE源于DOTA2中的'AOE'(Area Of Effect)概念,表示能够在特定区域内影响多个目标的能力。在AI领域,OpenAOE意味着用户可以通过单一提示同时获得多个大语言模型的并行输出。
OpenAOE的主要特性 💡
- 一次提问,多模型同时回答:通过单一提示获取多个LLM的并行回复。
- 支持主流商业API:默认支持GPT-3.5、GPT-4、Google Palm、Minimax、Claude、Spark等,并支持用户自定义接入其他大模型API。
- 兼容开源模型API:推荐使用LMDeploy一键部署开源模型。
- 提供后端API和Web界面:满足不同用户的使用需求。
快速开始 🚀
OpenAOE提供了三种运行方式:pip安装、Docker运行和源码运行。这里我们以pip安装为例:
- 安装OpenAOE:
pip install openaoe
2. 启动OpenAOE:
openaoe -f /path/to/your/config-template.yaml
注意:您需要准备一个配置文件`config-template.yaml`,包含LLM的相关配置信息(API URL、密钥等)。
### 技术栈与项目结构 🛠️
- 后端:Python + FastAPI
- 前端:TypeScript + Sealion-Client (基于React封装) + Sealion-UI
- 构建工具:conda(Python环境)、npm(前端项目)
项目结构:
- 前端代码:`openaoe/frontend`
- 后端代码:`openaoe/backend`
- 项目入口:`openaoe/main.py`
### 学习资源 📚
1. [OpenAOE GitHub仓库](https://github.com/InternLM/OpenAOE):项目主页,包含最新进展、详细文档和源代码。
2. [配置文件说明](https://github.com/InternLM/OpenAOE/blob/main/docs/tech-report/config-template.md):了解如何配置OpenAOE。
3. [未来计划](https://github.com/InternLM/OpenAOE/blob/main/docs/todo/TODO.md):查看项目的发展方向,欢迎贡献您的想法。
### 参与贡献 🤝
OpenAOE是一个开源项目,欢迎社区贡献。如果您想添加新的LLM API或功能,可以参考以下步骤:
1. 在`openaoe/frontend/src/config/model-config.ts`中添加新模型信息。
2. 在`openaoe/frontend/src/config/api-config.ts`中添加新模型的API请求配置。
3. 在`openaoe/frontend/src/services/fetch.ts`中修改新模型的payload处理逻辑。
### 结语 🌟
OpenAOE为AI研究者、评估者、工程开发人员甚至非专业人士提供了一个强大的工具,让我们能够快速接入市场上知名的商业和开源大语言模型,实现单模型串行响应和多模型并行响应。通过本文的介绍,相信您已经对OpenAOE有了全面的了解。现在,让我们开始探索OpenAOE的无限可能吧!
#AI #OpenAOE #LLM #群聊框架 #开源项目