cookbook/models/ibm/watsonx/async_basic_stream.py
import asyncio
from agno.agent import Agent, RunResponse
from agno.models.ibm import WatsonX
agent = Agent(
model=WatsonX(id="ibm/granite-20b-code-instruct"), debug_mode=True, markdown=True
)
# 获取响应到一个变量
# run_response: Iterator[RunResponse] = agent.run("Share a 2 sentence horror story", stream=True)
# for chunk in run_response:
# print(chunk.content)
# 在终端打印响应
asyncio.run(agent.aprint_response("Share a 2 sentence horror story", stream=True))
创建虚拟环境
打开 Terminal
并创建一个 python 虚拟环境。
python3 -m venv .venv
source .venv/bin/activate
设置你的 API 密钥
export IBM_WATSONX_API_KEY=xxx
export IBM_WATSONX_PROJECT_ID=xxx
安装库
pip install -U ibm-watsonx-ai agno
运行代理
python cookbook/models/ibm/watsonx/async_basic_stream.py
此示例结合了异步执行和流式传输。它创建了一个 debug_mode=True
的代理以获得额外的日志记录,并使用带有流式传输的异步 API 来获取和显示正在生成的响应。
Responses are generated using AI and may contain mistakes.