glm-free-api 入门学习资料汇总
glm-free-api 是一个基于智谱清言 ChatGLM4 大模型的逆向 API 项目,支持高速流式输出、智能体对话、多轮对话、视频生成、AI 绘图、联网搜索、长文档解读、代码调用、图像解析等功能。本文将为大家整理该项目的相关学习资源,帮助开发者快速上手使用。
项目简介
glm-free-api 项目地址:https://github.com/LLM-Red-Team/glm-free-api
该项目的主要特点包括:
- 支持高速流式输出
- 支持智能体对话
- 支持多轮对话
- 支持视频生成
- 支持 AI 绘图
- 支持联网搜索
- 支持长文档解读
- 支持代码调用
- 支持图像解析
- 零配置部署
- 多路 token 支持
- 自动清理会话痕迹
与 ChatGPT 接口完全兼容,可以轻松替换现有的 OpenAI API。
在线体验
项目提供了在线体验链接:https://udify.app/chat/Pe89TtaX3rKXM8NS
但由于只有一路并发,如遇异常请稍后重试。建议开发者自行部署使用。
效果示例
项目 README 中提供了多个效果示例,包括:
- 验明正身 Demo
- 智能体对话 Demo
- 结合 Dify 工作流 Demo
- 多轮对话 Demo
- 视频生成 Demo
- AI 绘图 Demo
- 联网搜索 Demo
- 长文档解读 Demo
- 代码调用 Demo
- 图像解析 Demo
开发者可以通过这些示例了解 glm-free-api 的各项功能。
接入准备
要使用 glm-free-api,需要先从智谱清言获取 refresh_token。具体步骤如下:
- 进入智谱清言并发起一个对话
- 打开开发者工具(F12)
- 在 Application > Cookies 中找到
chatglm_refresh_token
的值 - 将该值作为 Authorization 的 Bearer Token
对于智能体接入,还需要获取智能体 ID:
- 打开智能体的聊天界面
- 复制地址栏中的 ID 字符串
- 在调用时将该 ID 作为
model
参数值
部署方法
项目提供了多种部署方式:
- Docker 部署
- Docker-compose 部署
- Render 部署
- Vercel 部署
- 原生部署
具体部署步骤请参考项目 README 中的详细说明。
接口列表
glm-free-api 提供了以下主要接口:
- 对话补全接口
/v1/chat/completions
- 视频生成接口
/v1/videos/generations
- AI 绘图接口
/v1/images/generations
- 文档解读(通过对话补全接口实现)
- 图像解析(通过对话补全接口实现)
这些接口的详细使用方法、请求参数和响应数据格式都可以在项目 README 中找到。
推荐客户端
项目推荐使用以下二次开发的客户端,它们支持文档/图像上传,使接入更加简单:
注意事项
- 项目仅供学习交流使用,不得用于商业目的
- 使用时要注意遵守相关法律法规和平台规则
- 建议自行部署使用,避免对官方服务造成压力
通过本文的介绍,相信开发者们已经对 glm-free-api 项目有了初步的了解。更多详细信息和最新更新,请关注项目 GitHub 页面。希望这些资料能帮助大家更好地利用智谱清言 ChatGLM4 大模型的强大功能,开发出更多有趣的应用!