将 CrewAI 连接到 LLM
CrewAI 使用 LiteLLM 连接到各种各样的语言模型(LLM)。这种集成为其提供了广泛的通用性,允许您通过一个简单、统一的接口使用来自众多提供商的模型。默认情况下,CrewAI 使用
gpt-4o-mini 模型。这是由 OPENAI_MODEL_NAME 环境变量决定的,如果未设置,则默认为 “gpt-4o-mini”。您可以按照本指南中的说明,轻松配置您的智能体以使用不同的模型或提供商。支持的提供商
LiteLLM 支持广泛的提供商,包括但不限于- OpenAI
- Anthropic
- Google (Vertex AI, Gemini)
- Azure OpenAI
- AWS (Bedrock, SageMaker)
- Cohere
- VoyageAI
- Hugging Face
- Ollama
- Mistral AI
- Replicate
- Together AI
- AI21
- Cloudflare Workers AI
- DeepInfra
- Groq
- SambaNova
- Nebius AI Studio
- NVIDIA NIMs
- 以及更多!
更换 LLM
要为您的 CrewAI 智能体使用不同的 LLM,您有以下几种选择- 使用字符串标识符
- 使用 LLM 类
在初始化智能体时将模型名称作为字符串传递
配置选项
在为您的智能体配置 LLM 时,您可以使用各种参数| 参数 | 类型 | 描述 |
|---|---|---|
| model | str | 要使用的模型名称(例如,“gpt-4”、“claude-2”) |
| temperature | 浮点数 | 控制输出的随机性(0.0 到 1.0) |
| max_tokens | int | 要生成的最大令牌数 |
| top_p | 浮点数 | 控制输出的多样性(0.0 到 1.0) |
| frequency_penalty | 浮点数 | 根据新令牌在文本中至今的频率对其进行惩罚 |
| presence_penalty | 浮点数 | 根据新令牌在文本中至今的存在情况对其进行惩罚 |
| stop | str, List[str] | 停止生成的序列 |
| base_url | str | API 端点的基础 URL |
| api_key | str | 用于身份验证的 API 密钥 |
连接到与 OpenAI 兼容的 LLM
您可以使用环境变量或通过在 LLM 类上设置特定属性来连接到与 OpenAI 兼容的 LLM- 使用环境变量
- 使用 LLM 类属性
使用 Ollama 运行本地模型
对于像 Ollama 提供的本地模型更改基础 API URL
您可以通过设置base_url 参数来更改任何 LLM 提供商的基础 API URL
代码
