项目介绍:chatgptProxyAPI
chatgptProxyAPI 是一个旨在帮助使用者更便捷地接入 OpenAI 的服务的项目。通过利用 Cloudflare Worker 和 Cloudflare Pages 的能力,该项目提供了一种中转 OpenAI API 的方式,使得用户可以绕过可能的访问限制,并在自己的域名上无缝使用 OpenAI 的服务。
Cloudflare Worker 中转
首先,用户需要在 Cloudflare 中创建一个 Worker。通过复制并粘贴项目提供的 cf_worker.js
代码,用户能够快速设置一个中转服务。这个服务会将所有对 api.openai.com
的请求转发到用户的自定义域名上。该方法适合那些需要简单、自定义使用域名的用户。
使用 Cloudflare Pages 进行中转
对于希望使用 Cloudflare Pages 的用户,chatgptProxyAPI 提供了两种部署方式:
- 部署中转 API 和 OpenAI API 余额查询功能:用户可以通过复制模板快速创建一个新的代码库,并在 Cloudflare Pages 上进行配置和部署。
- 仅部署中转 API:适合那些仅需 API 转发功能的用户。
完成部署后,用户只需将请求的原始 URL 从 https://api.openai.com
替换为自己的 Pages 域名即可。
Docker 部署
虽然 docker 方案没有内建 SSE 支持,因此不建议作为首选方案,但它仍为有境外 VPS 的用户提供了另一种选择。
示例命令:
docker run -itd --name openaiproxy \
-p 3000:3000 \
--restart=always \
gindex/openaiproxy:latest
使用示例
该项目提供了多种编程语言的使用示例以便开发者快速集成,包括:
- JavaScript 中使用
fetch
进行 API 调用。 - Python 利用
requests
库发送请求并处理响应。 - Node.js 通过
chatgpt-api
库轻松发送消息。
此外,项目还展示了如何利用代码查询 OpenAI 的 API 使用情况和余额。
注意事项
- 演示站点提供公共服务,但为了避免超负荷使用,建议用户在有大规模使用需求时自行部署。
- 定制化域名有助于绕过可能存在的访问限制,确保服务的稳定性。
chatgptProxyAPI 为开发者和使用者简化了 OpenAI API 的接入过程,提供了灵活多样的解决方案,以满足不同使用场景和需求。开发者通过这些代理和中转功能,可以在不同网络环境下无障碍地利用 OpenAI 的强大功能。