项目介绍:poe-openai-proxy
项目概述
poe-openai-proxy
是一个旨在将 poe-api
Python库包装成类似于 OpenAI 的 ChatGPT API 的工具,从而使用户可以免费享受 ChatGPT 的功能。这一项目尤其适合那些基于 OpenAI API 的应用,因为它在这些应用中可以无缝替换 OpenAI 的官方 API 而不需要修改代码。
Quora 的 [Poe.com] 是一个免费的网络应用,允许用户与 GPT 模型进行对话。poe-api
是通过逆向工程 poe.com
网站而成的一个 Python 库,它允许用户使用 Python 来调用 poe.com
的功能。poe-openai-proxy
则是在 poe-api
的基础上,提供了一个通过 HTTP API 访问的接口,这个接口模拟了 OpenAI 官方的 ChatGPT API,从而可以与其他使用 OpenAI API 的程序对接。
安装指南
要安装 poe-openai-proxy
,请按照以下步骤操作:
-
克隆项目库到本地:
git clone https://github.com/juzeon/poe-openai-proxy.git cd poe-openai-proxy/
-
从
requirements.txt
文件中安装依赖:pip install -r external/requirements.txt
-
在项目的根文件夹中创建配置文件。可参阅示例配置文件中的注释进行设置:
cp config.example.toml config.toml vim config.toml
-
启动用于
poe-api
的 Python 后端:python external/api.py # 运行在端口 5100
-
构建并启动 Go 后端:
go build chmod +x poe-openai-proxy ./poe-openai-proxy
Docker 支持
如果您希望使用 Docker,可以在根据上述步骤创建 config.toml
之后,直接运行以下命令:
docker-compose up -d
使用方法
有关如何使用 ChatGPT API 的详细信息,请参阅 OpenAI 的官方文档。要使用 poe-openai-proxy
,只需将代码中的 https://api.openai.com
替换为 http://localhost:3700
即可。
支持的路由
- /models
- /chat/completions
- /v1/models
- /v1/chat/completions
支持的参数
参数 | 说明 |
---|---|
model | 请查看 config.example.toml 中的 [bot] 部分,模型名称映射到机器人的昵称。 |
messages | 除 name 外,使用方式与官方 API 相同。 |
stream | 使用方式与官方 API 相同。 |
其他参数将被忽略。
致谢
项目中使用的 poe-api
来自于 : https://github.com/ading2210/poe-api。
通过这一工具,用户可以在保有使用 OpenAI API 接口便利的同时,免费体验 ChatGPT 的强大功能。