- 直接 SDK 集成 - 使用 LiteLLM Python SDK
- 代理服务器集成 - 将 LiteLLM 用作兼容 OpenAI 的代理
先决条件
对于这两种集成方法,您需要:LITELLM_API_KEY
。
SDK 集成
LiteLLM
类提供了直接与 LiteLLM Python SDK 的集成。
基本用法
使用 Hugging Face 模型
LiteLLM 也可以与 Hugging Face 模型配合使用:配置选项
LiteLLM
类接受以下参数:
参数 | 类型 | 描述 | 默认值 |
---|---|---|---|
id | str | 模型标识符(例如,“gpt-4o” 或 “huggingface/mistralai/Mistral-7B-Instruct-v0.2”) | “gpt-4o” |
name | str | 模型的显示名称 | ”LiteLLM” |
provider | str | 提供商名称 | ”LiteLLM” |
api_key | Optional[str] | API 密钥(回退到 LITELLM_API_KEY 环境变量) | None |
api_base | Optional[str] | API 请求的基 URL | None |
max_tokens | Optional[int] | 响应中的最大 token 数 | None |
temperature | float | 采样温度 | 0.7 |
top_p | float | Top-p 采样值 | 1.0 |
request_params | Optional[Dict[str, Any]] | 其他请求参数 | None |
SDK 示例
在此处查看更多示例:../examples/models/litellm。