了解如何在 Agno 中使用大语言模型。
Cerebras Inference 通过 Cerebras Wafer-Scale Engine 和 CS-3 系统提供高速、低延迟的 AI 模型推理。Agno 直接集成 Cerebras Python SDK,让您能够通过简单的接口使用最先进的 Llama 模型。
要将 Cerebras 与 Agno 结合使用,您需要:
安装必需的软件包:
设置您的 API 密钥: Cerebras SDK 要求您的 API 密钥作为环境变量可用:
以下是如何在 Agno 中使用 Cerebras 模型:
Cerebras 目前支持以下模型(有关最新列表,请参阅 文档):
模型名称 | 模型 ID | 参数 | 知识库 |
---|---|---|---|
Llama 4 Scout | llama-4-scout-17b-16e-instruct | 1090亿 | 2024年8月 |
Llama 3.1 8B | llama3.1-8b | 80亿 | 2023年3月 |
Llama 3.3 70B | llama-3.3-70b | 700亿 | 2023年12月 |
DeepSeek R1 Distill Llama 70B* | deepseek-r1-distill-llama-70b | 700亿 | 2023年12月 |
* DeepSeek R1 Distill Llama 70B 目前处于私有预览阶段。
Cerebras
类接受以下参数:
参数 | 类型 | 描述 | 默认值 |
---|---|---|---|
id | str | 模型标识符(例如 “llama-4-scout-17b-16e-instruct”) | 必需 |
name | str | 模型的显示名称 | ”Cerebras” |
provider | str | 提供商名称 | ”Cerebras” |
api_key | Optional[str] | API 密钥(将回退到 CEREBRAS_API_KEY 环境变量) | None |
max_tokens | Optional[int] | 响应中的最大令牌数 | None |
temperature | float | 采样温度 | 0.7 |
top_p | float | Top-p 采样值 | 1.0 |
request_params | Optional[Dict[str, Any]] | 其他请求参数 | None |