Open WebUI 简介
Open WebUI (原名 Ollama WebUI) 是一个可扩展、功能丰富且用户友好的自托管 Web 界面,专为完全离线运行大型语言模型(LLM)而设计。它支持多种 LLM 运行器,包括 Ollama 和兼容 OpenAI 的 API。
主要特性
Open WebUI 提供了丰富的功能:
- 🚀 简易安装:使用 Docker 或 Kubernetes 轻松部署
- 🤝 Ollama/OpenAI API 集成:支持多种模型和 API
- 🧩 插件支持:通过 Pipelines 插件框架扩展功能
- 📱 响应式设计:支持桌面和移动设备
- ✒️ Markdown 和 LaTeX 支持
- 🎤 语音/视频通话:提供更动态的交互体验
- 🛠️ 模型构建器:轻松创建和自定义 Ollama 模型
- 📚 本地 RAG 集成:支持文档交互和知识库构建
- 🔍 网络搜索:集成多种搜索引擎
- 🎨 图像生成:支持 AUTOMATIC1111、ComfyUI 等
- 🔐 基于角色的访问控制:确保安全访问
安装指南
Docker 快速启动
使用以下命令安装 Open WebUI:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:main
安装完成后,访问 http://localhost:3000 即可使用。
其他安装方法
Open WebUI 还支持多种安装方式,包括:
- 使用 pip 安装
- 从 GitHub 源码安装
- 使用 Docker Compose
- Kubernetes 部署
详细安装说明请参考 Open WebUI 官方文档。
学习资源
- 官方文档: 最全面的使用指南和配置说明
- GitHub 仓库: 源代码和最新更新
- Discord 社区: 获取帮助和交流经验
- Open WebUI Community: 探索和分享自定义模型文件
贡献与支持
Open WebUI 是一个开源项目,欢迎贡献代码或提供反馈。如果你喜欢这个项目,可以考虑:
- 在 GitHub 上给项目加星⭐
- 加入 Discord 社区参与讨论
- 为项目提供赞助
让我们一起努力,使 Open WebUI 变得更加强大和易用!