跳转到主要内容
CrewAI 主页
中文
搜索...
⌘K
开始云试用
crewAIInc/crewAI
crewAIInc/crewAI
搜索...
导航
概述
首页
文档
AOP
API 参考
示例
更新日志
开始使用
简介
安装
快速入门
指南
策略
智能体
Crew
流程
高级
核心概念
智能体
任务
Crew
流程
知识
大语言模型(LLMs)
进程
协作
训练
记忆
推理
规划
测试
命令行界面(CLI)
工具
事件监听器
MCP 集成
MCP 服务器作为 CrewAI 中的工具
MCP DSL 集成
Stdio 传输
SSE 传输
可流式 HTTP 传输
连接到多个 MCP 服务器
MCP 安全注意事项
工具
工具概述
文件与文档
网页抓取与浏览
搜索与研究
数据库与数据
人工智能与机器学习
云与存储
集成
自动化
可观测性
CrewAI 追踪
概述
Arize Phoenix
Braintrust
Datadog 集成
LangDB 集成
Langfuse 集成
Langtrace 集成
Maxim 集成
MLflow 集成
Neatlogs 集成
OpenLIT 集成
Opik 集成
Patronus AI 评估
Portkey 集成
Weave 集成
TrueFoundry 集成
学习
概述
战略性 LLM 选择指南
条件任务
编码智能体
创建自定义工具
自定义 LLM 实现
自定义管理器智能体
自定义智能体
使用 DALL-E 生成图像
强制工具输出作为结果
分层流程
执行时的人工输入
人机协同(HITL)工作流
异步启动 Crew
为每个任务启动 Crew
连接到任何 LLM
使用多模态智能体
从最近的 Crew 启动中重播任务
顺序进程
在 crew.py 中使用注解
执行钩子概述
LLM 调用钩子
工具调用钩子
遥测
遥测
概述
复制页面
用于将团队部署和自动化到外部平台的集成
复制页面
可用集成
Bedrock 调用代理工具
从 CrewAI 调用 Amazon Bedrock 代理,以协调跨 AWS 服务操作。
CrewAI 自动化工具
通过将 CrewAI 与外部平台和工作流集成,实现部署和操作自动化。
使用这些集成将 CrewAI 连接到您的基础设施和工作流。
此页面是否有帮助?
是
否
⌘我