Arize Phoenix
Arize Phoenix 与 CrewAI 集成,使用 OpenTelemetry 和 OpenInference
Arize Phoenix 集成
本指南演示了如何使用 OpenInference SDK 通过 OpenTelemetry 将 Arize Phoenix 与 CrewAI 集成。阅读完本指南后,您将能够跟踪 CrewAI Agent 并轻松调试您的 Agent。
什么是 Arize Phoenix? Arize Phoenix 是一个 LLM 可观测性平台,为 AI 应用提供跟踪和评估。
入门
我们将通过一个简单的示例,演示如何使用 CrewAI 并通过 OpenInference 使用 OpenTelemetry 将其与 Arize Phoenix 集成。
您还可以在 Google Colab 上访问本指南。
步骤 1:安装依赖
步骤 2:设置环境变量
设置 Phoenix Cloud API 密钥并配置 OpenTelemetry 将跟踪发送到 Phoenix。Phoenix Cloud 是 Arize Phoenix 的托管版本,但使用此集成并非强制要求。
您可以在此处获取免费的 Serper API 密钥。
步骤 3:使用 Phoenix 初始化 OpenTelemetry
初始化 OpenInference OpenTelemetry Instrumentation SDK,开始捕获跟踪并将其发送到 Phoenix。
步骤 4:创建 CrewAI 应用
我们将创建一个 CrewAI 应用,其中两个 Agent 协作研究并撰写一篇关于 AI 进展的博客文章。
步骤 5:在 Phoenix 中查看跟踪
运行 Agent 后,您可以在 Phoenix 中查看 CrewAI 应用生成的跟踪。您将看到 Agent 交互和 LLM 调用的详细步骤,这有助于您调试和优化您的 AI Agent。
登录您的 Phoenix Cloud 账户,导航到您在 project_name
参数中指定的项目。您将看到您的跟踪的时间线视图,其中包含所有 Agent 交互、工具使用和 LLM 调用。
版本兼容性信息
- Python 3.8+
- CrewAI >= 0.86.0
- Arize Phoenix >= 7.0.1
- OpenTelemetry SDK >= 1.31.0
参考资料
- Phoenix 文档 - Phoenix 平台概述。
- CrewAI 文档 - CrewAI 框架概述。
- OpenTelemetry 文档 - OpenTelemetry 指南
- OpenInference GitHub - OpenInference SDK 源代码。