Agent效果优化——提示策略

思维链(Chain of Thought)

最大化利用模型的推理能力。

Least-to-most提示

Plan & Execute

规划
执行

React:思考、执行

LangChain优化选择:
Reflection

ReAct

思考、执行

自我反思

三个LLM角色

  1. 参与者:根据状态观测量生成文本和动作。参与者在环境中采取行动并接受观察结果,形成Trajectory。
    参与者可以使用思维链、ReAct等提示工程提升效果。并且使用基于组件为智能体提供额外的上下文信息。
  2. 评估者:对参与者的输出进行评估并输出奖励分数。
  3. 自我反思:输入是评估者输出的奖励分数、参与者输出的轨迹和持久记忆,输出反馈,并存储到记忆组件。智能体利用这些经验(已经存储在长期记忆中)改进决策。
    自我反思(Reflexion)

参考

Least-to-Most Prompting Enables Complex Reasoning in Large Language Models
[Self-Refine](Self-Refine: Iterative Refinement with Self-Feedback)


Agent效果优化——提示策略
https://summerchengh.github.io/tech-blog/2025/06/18/大模型-Agent-效果优化-提示策略/
Author
Your Name
Posted on
June 18, 2025
Licensed under