Ollama 模型提供了对本地托管的开源模型的访问。
参数 (Parameter) | 类型 (Type) | 默认值 (Default) | 描述 (Description) |
---|---|---|---|
id | str | "llama3.1" | 要使用的模型的 ID。 |
name | str | "Ollama" | 模型的名称。 |
provider | str | "Ollama" | 模型的提供商。 |
format | Optional[Any] | None | 响应的格式。 |
options | Optional[Any] | None | 要传递给模型的附加选项。 |
keep_alive | Optional[Union[float, str]] | None | 模型的保持活动时间。 |
request_params | Optional[Dict[str, Any]] | None | 要传递给请求的附加参数。 |
host | Optional[str] | None | 要连接的主机。 |
timeout | Optional[Any] | None | 连接的超时时间。 |
client_params | Optional[Dict[str, Any]] | None | 要传递给客户端的附加参数。 |
client | Optional[OllamaClient] | None | 预先配置的 Ollama 客户端实例。 |
async_client | Optional[AsyncOllamaClient] | None | 预先配置的异步 Ollama 客户端实例。 |
structured_outputs | bool | False | 是否为此模型使用结构化输出。 |
supports_structured_outputs | bool | True | 模型是否支持结构化输出。 |