推理模型
推理模型是一类专门的大型语言模型,通过强化学习训练,使其能够在回答前进行思考。它们在响应前会产生一个内部的思考链。推理模型的例子包括 OpenAI o-series、扩展思考模式下的 Claude 3.7 sonnet、Gemini 2.0 flash thinking 和 DeepSeek-R1。 模型层的推理关系到模型在开始生成响应之前所做的一切。推理模型在单次解决(single-shot)用例方面表现出色。它们非常适合解决不需要多次交互或顺序调用工具的难题(编码、数学、物理)。示例
o3_mini.py
推理模型 + 回应模型
如果我们想使用一个推理模型进行推理,但使用另一个模型来生成响应,会怎么样?众所周知,推理模型在解决问题方面非常出色,但在以自然的方式进行响应方面(如 Claude sonnet 或 GPT-4o)却不是那么擅长。 通过使用一个单独的模型进行推理,另一个模型进行响应,我们可以获得两全其美的好处。示例
让我们使用 Groq 的 deepseek-r1 进行推理,并使用 Claude sonnet 进行自然回应。deepseek_plus_claude.py
推理工具
通过向模型提供一个 “思考”工具,我们可以为一个专门的结构化思考空间,从而极大地提高其推理能力。这是一种简单而有效的方法,可以为非推理模型添加推理能力。 该研究最初由 Anthropic 在这篇博文中发布,但在此之前已被许多 AI 工程师(包括我们自己的团队)实践了。示例
claude_thinking_tools.py
推理智能体
推理智能体(Reasoning Agents)是 Agno 开发的一种新型多智能体系统,它将思考链推理与工具使用相结合。 您可以通过设置reasoning=True
来为任何智能体启用推理。
当一个设置了 reasoning=True
的智能体接到任务时,一个独立的“推理智能体”会首先使用思考链来解决问题。在每个步骤中,它会调用工具来收集信息、验证结果并进行迭代,直到得出最终答案。一旦推理智能体得出最终答案,它会将结果交回给原始智能体进行验证并提供响应。
示例
reasoning_agent.py