metaso-free-api:秘塔AI搜索的开源逆向API实现
metaso-free-api是一个由LLM-Red-Team开发的开源项目,旨在提供秘塔AI搜索的逆向API实现。该项目支持高速流式输出、超强联网搜索功能,并提供多种搜索模式,可以轻松部署和集成到各种应用中。
项目主要特点
- 支持高速流式输出
- 提供超强联网搜索功能,包括全网搜索和学术搜索
- 支持简洁、深入、研究三种搜索模式
- 零配置部署,使用方便
- 支持多路token,提高稳定性
- 与ChatGPT API完全兼容,便于集成
搜索模式展示
metaso-free-api提供了三种不同的搜索模式,分别是简洁模式、深入模式和研究模式。这些模式可以满足用户在不同场景下的需求:
简洁模式和深入模式的对比展示了不同深度的搜索结果。
研究模式则提供了更加详细和学术性的搜索结果。
部署方式
metaso-free-api提供了多种部署方式,以适应不同用户的需求:
-
Docker部署:
docker run -it -d --init --name metaso-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/metaso-free-api:latest
-
Docker-compose部署:项目提供了docker-compose.yml文件,可以快速启动服务。
-
Render部署:可以直接在Render平台上部署,但需注意部分部署区域可能存在连接问题。
-
Vercel部署:支持在Vercel上部署,但免费账户可能会遇到超时问题。
-
原生部署:可以直接在服务器上安装Node.js环境并部署运行。
接口使用
metaso-free-api提供了与OpenAI API兼容的接口,主要包括:
- 对话补全接口:
/v1/chat/completions
- token存活检测接口:
/token/check
使用时需要设置Authorization头部,格式为:
Authorization: Bearer uid-sid
其中uid-sid需要从秘塔AI搜索官网获取。
注意事项
- 本项目仅供学习和研究使用,不建议用于商业目的。
- 使用时请遵守秘塔AI的使用条款,避免对官方服务造成压力。
- 部署时建议使用Nginx反向代理,并进行相应的优化配置。
- 由于项目特性,无法准确统计token使用量,会返回固定数值。
metaso-free-api为开发者和研究人员提供了一个便捷的工具,可以轻松接入秘塔AI的强大搜索能力。然而,使用时请务必遵守相关规定,确保合法合规使用。随着项目的不断发展,相信会有更多有趣的应用场景被开发出来。