cookbook/models/ibm/watsonx/basic_stream.py
from typing import Iterator
from agno.agent import Agent, RunResponse
from agno.models.ibm import WatsonX
agent = Agent(model=WatsonX(id="ibm/granite-20b-code-instruct"), markdown=True)
# 将响应存储在变量中
# run_response: Iterator[RunResponse] = agent.run("Share a 2 sentence horror story", stream=True)
# for chunk in run_response:
# print(chunk.content)
# 在终端中打印响应
agent.print_response("Share a 2 sentence horror story", stream=True)
创建虚拟环境
打开 Terminal
并创建一个 python 虚拟环境。
python3 -m venv .venv
source .venv/bin/activate
设置您的 API 密钥
export IBM_WATSONX_API_KEY=xxx
export IBM_WATSONX_PROJECT_ID=xxx
安装库
pip install -U ibm-watsonx-ai agno
运行 Agent
python cookbook/models/ibm/watsonx/basic_stream.py
此示例演示了如何使用 IBM WatsonX 进行流式处理。在调用 print_response()
或 run()
时设置 stream=True
可以启用逐个 token 的流式传输,从而提供更具交互性的用户体验。
Responses are generated using AI and may contain mistakes.