Agent 监控与可观测性
Langfuse 集成
了解如何通过 OpenTelemetry 使用 OpenLit 将 Langfuse 与 CrewAI 集成
将 Langfuse 与 CrewAI 集成
本文档演示了如何通过 OpenTelemetry 使用 OpenLit SDK 将 Langfuse 与 CrewAI 集成。完成本文档后,您将能够使用 Langfuse 跟踪您的 CrewAI 应用程序,以改进可观测性和调试。
什么是 Langfuse? Langfuse 是一个开源的 LLM 工程平台。它为 LLM 应用程序提供跟踪和监控功能,帮助开发者调试、分析和优化其 AI 系统。Langfuse 通过原生集成、OpenTelemetry 和 API/SDK 与各种工具和框架集成。
开始使用
我们将通过一个简单的示例,演示如何使用 CrewAI 并通过 OpenTelemetry 使用 OpenLit 将其与 Langfuse 集成。
步骤 1: 安装依赖
步骤 2: 设置环境变量
设置您的 Langfuse API 密钥并配置 OpenTelemetry 导出设置,将跟踪发送到 Langfuse。有关 Langfuse OpenTelemetry 端点 /api/public/otel
和身份验证的更多信息,请参阅 Langfuse OpenTelemetry 文档。
步骤 3: 初始化 OpenLit
初始化 OpenLit OpenTelemetry 仪器化 SDK 以开始捕获 OpenTelemetry 跟踪。
步骤 4: 创建简单的 CrewAI 应用程序
我们将创建一个简单的 CrewAI 应用程序,其中多个 agents 协作回答用户的问题。
步骤 5: 在 Langfuse 中查看跟踪
运行 agent 后,您可以在 Langfuse 中查看 CrewAI 应用程序生成的跟踪。您将看到 LLM 交互的详细步骤,这有助于您调试和优化 AI agent。