- 跟踪 - 使用基于OpenTelemetry的工具跟踪LLM应用程序的运行时。
- 评估 - 利用LLM对应用程序的性能进行基准测试,使用响应和检索评估。
- 数据集 - 创建版本化的示例数据集,用于实验、评估和微调。
- 实验 - 跟踪和评估提示、LLM和检索的变化。
- 推理分析 - 使用降维和聚类可视化推理和嵌入,以识别漂移和性能下降。
Phoenix与供应商和语言无关,为流行框架(🦙LlamaIndex、🦜⛓LangChain、🧩DSPy)和LLM提供商(OpenAI、Bedrock等)提供开箱即用的支持。有关自动化工具的详细信息,请查看OpenInference项目。
Phoenix几乎可以在任何地方运行,包括Jupyter笔记本、本地机器、容器化部署或云端。
安装
通过pip
或conda
安装Phoenix,并附带运行评估所需的额外依赖项:
pip install 'arize-phoenix[evals]'
Phoenix容器镜像可通过Docker Hub获得,可使用Docker或Kubernetes部署。
社区
加入我们的社区,与数千名AI构建者联系。
- 🌍 加入我们的Slack社区。
- 💡 在_#phoenix-support_频道提问和提供反馈。
- 🌟 在我们的GitHub上留下星标。
- 🐞 通过GitHub Issues报告错误。
- 𝕏 在𝕏上关注我们。
- 💌️ 订阅我们的邮件列表。
- 🗺️ 查看我们的路线图,了解我们的下一步计划。
致谢
重大变更
请参阅迁移指南了解重大变更列表。
版权、专利和许可
版权所有 2023 Arize AI, Inc. 保留所有权利。
本代码的部分内容受一项或多项美国专利保护。参见IP_NOTICE。
本软件根据Elastic License 2.0(ELv2)的条款授权。参见LICENSE。