了解如何在 Agno 中使用 AWS Claude 模型。
通过 AWS Bedrock 使用 Claude 模型。这将提供针对 AWS 基础架构优化的原生 Claude 集成。
我们建议进行实验,以找到最适合您用例的模型。以下是一些通用建议:
anthropic.claude-3-5-sonnet-20241022-v2:0
模型适用于大多数用例,并支持图像输入。anthropic.claude-3-5-haiku-20241022-v2:0
模型是他们最快的模型。设置您的 AWS_ACCESS_KEY_ID
、AWS_SECRET_ACCESS_KEY
和 AWS_REGION
环境变量。
从此处获取您的密钥。
在您的 Agent
中使用 Claude
:
参数 | 类型 | 默认值 | 描述 |
---|---|---|---|
id | str | "anthropic.claude-3-5-sonnet-20240620-v1:0" | 用于生成响应的特定模型 ID。 |
name | str | "AwsBedrockAnthropicClaude" | Claude 代理的名称标识符。 |
provider | str | "AwsBedrock" | 模型提供商。 |
client | Optional[AnthropicBedrock] | None | 用于向 Anthropic Bedrock 服务发出请求的客户端。 |
async_client | Optional[AsyncAnthropicBedrock] | None | 用于向 Anthropic Bedrock 服务发出请求的异步客户端。 |
max_tokens | int | 4096 | 响应中要生成的最大 token 数。 |
temperature | Optional[float] | "None" | 要使用的采样温度,介于 0 和 2 之间。0.8 这样的较高值会使输出更随机,而 0.2 这样的较低值会使输出更聚焦和确定性。 |
top_p | Optional[float] | "None" | 核心采样参数。模型会考虑具有 top_p 概率质量的 token 结果。 |
top_k | Optional[int] | "None" | 用于 top-k 过滤要保留的最高概率词汇 token 的数量。 |
stop_sequences | Optional[List[str]] | "None" | API 将停止生成更多 token 的序列列表。 |
request_params | Optional[Dict[str, Any]] | "None" | 请求的附加参数,以字典形式提供。 |
client_params | Optional[Dict[str, Any]] | "None" | 用于初始化 AwsBedrock 客户端的附加客户端参数,以字典形式提供。 |
Claude
是 AnthropicClaude
的一个子类,并可以访问相同的参数。