代码

cookbook/models/meta/async_stream.py
import asyncio
from agno.agent import Agent
from agno.models.meta import Llama

async def main():
    agent = Agent(
        model=Llama(id="Llama-3.3-70B"),
        markdown=True,
    )
    
    await agent.aprint_response(
        "写一个两句话的恐怖故事。",
        stream=True
    )

asyncio.run(main())

用法

1

创建虚拟环境

打开 Terminal 并创建一个 python 虚拟环境。

python3 -m venv .venv
source .venv/bin/activate
2

设置您的 LLAMA API 密钥

export LLAMA_API_KEY=YOUR_API_KEY
3

安装库

pip install llama-api-client agno
4

运行 Agent

python cookbook/models/meta/async_stream.py