将 LiteLLM 集成到 Agno 中,获得统一的 LLM 体验。
LiteLLM 为各种 LLM 提供商提供了一个统一的接口,让您可以使用相同的代码来使用不同的模型。
Agno 通过两种方式与 LiteLLM 集成:
对于这两种集成方法,您需要:
设置您的 API 密钥:
无论使用哪种模型(OpenAI、Hugging Face 或 XAI),API 密钥都引用为 LITELLM_API_KEY
。
LiteLLM
类提供了直接与 LiteLLM Python SDK 的集成。
LiteLLM 也可以与 Hugging Face 模型配合使用:
LiteLLM
类接受以下参数:
参数 | 类型 | 描述 | 默认值 |
---|---|---|---|
id | str | 模型标识符(例如,“gpt-4o” 或 “huggingface/mistralai/Mistral-7B-Instruct-v0.2”) | “gpt-4o” |
name | str | 模型的显示名称 | ”LiteLLM” |
provider | str | 提供商名称 | ”LiteLLM” |
api_key | Optional[str] | API 密钥(回退到 LITELLM_API_KEY 环境变量) | None |
api_base | Optional[str] | API 请求的基 URL | None |
max_tokens | Optional[int] | 响应中的最大 token 数 | None |
temperature | float | 采样温度 | 0.7 |
top_p | float | Top-p 采样值 | 1.0 |
request_params | Optional[Dict[str, Any]] | 其他请求参数 | None |