AI测试架构知识库AI测试架构知识库
首页
  • 方法论体系
  • 评估体系
  • 对比分析
  • 最佳实践
  • LLM技术
  • VLM技术
  • Agent技术
  • RAG技术
  • 模型评估
  • 自愈测试
  • UI测试场景
  • API测试场景
  • 性能测试场景
  • 安全测试场景
  • 移动测试场景
  • 数据工程
  • MLOps实践
  • 平台建设
  • DevOps集成
  • 质量评估
  • 效果度量
  • 风险控制
  • 合规审计
  • 视觉融合
  • 稳定性测试
  • 服务端技术
  • 系统架构
  • 前沿探索
  • 软技能
首页
  • 方法论体系
  • 评估体系
  • 对比分析
  • 最佳实践
  • LLM技术
  • VLM技术
  • Agent技术
  • RAG技术
  • 模型评估
  • 自愈测试
  • UI测试场景
  • API测试场景
  • 性能测试场景
  • 安全测试场景
  • 移动测试场景
  • 数据工程
  • MLOps实践
  • 平台建设
  • DevOps集成
  • 质量评估
  • 效果度量
  • 风险控制
  • 合规审计
  • 视觉融合
  • 稳定性测试
  • 服务端技术
  • 系统架构
  • 前沿探索
  • 软技能
  • 智能体架构

    • Agent 架构
    • 记忆系统
    • 认知推理架构
    • 多 Agent 协作
    • 工具使用

🧠 认知推理架构

一句话总结:认知推理架构决定 Agent 如何将复杂任务分解、规划并执行,是 Agent 的"大脑"。

📋 目录

  • ReAct 框架
  • Plan-and-Execute
  • Tree of Thoughts
  • Reflexion
  • 其他架构
  • 方法对比

🔄 ReAct 框架

核心理念

ReAct = Reasoning + Acting

Agent 在推理和行动之间交替:思考 → 行动 → 观察 → 思考 → 行动...

ReAct Prompt 模板

Question: 如何找到某篇文章的作者?
Thought 1: 我需要先理解这个问题。这是一个搜索任务,我需要找到特定的信息。
Action 1: search[文章标题]
Observation 1: 搜索结果...
Thought 2: 搜索结果中没有直接找到作者信息,我需要更精确的搜索。
Action 2: search[文章标题 + author]
Observation 2: 找到相关信息...
Thought 3: 现在我有了作者信息,任务完成。
Answer: 作者是 XXX

ReAct 实现要点

class ReActAgent:
    def __init__(self, llm, tools, max_steps=10):
        self.llm = llm
        self.tools = tools
        self.max_steps = max_steps
        self.history = []
    
    def execute(self, query):
        """执行 ReAct 循环"""
        for step in range(self.max_steps):
            # 1. 生成 Thought + Action
            prompt = self.build_prompt(query, self.history)
            response = self.llm.generate(prompt)
            thought, action = self.parse_response(response)
            
            # 2. 执行 Action
            observation = self.execute_action(action)
            
            # 3. 记录到历史
            self.history.append({
                "step": step,
                "thought": thought,
                "action": action,
                "observation": observation
            })
            
            # 4. 检查终止条件
            if self.is_complete(observation):
                return self.format_answer(query)
        
        return "超出最大步骤数"

📝 Plan-and-Execute

两阶段架构

优势与局限

特性ReActPlan-and-Execute
规划方式在线动态规划离线一次性规划
灵活性高(可随时调整)中(执行中难改计划)
效率低(每步都要推理)高(执行阶段快)
适合场景开放域探索结构化任务
幻觉风险较高较低

计划生成 Prompt

请规划完成以下任务的步骤:
任务:分析某公司的财务报表,评估其健康状况

步骤:
1. 搜索该公司最近的财务报表
2. 提取关键财务指标(营收、利润、现金流)
3. 分析营收增长趋势
4. 计算关键比率(负债率、利润率等)
5. 与行业平均水平对比
6. 综合评估并给出建议

🌳 Tree of Thoughts (ToT)

核心思想

将推理过程建模为树状结构,在每个决策点探索多个可能的"Thought",然后评估并选择最优路径。

搜索策略

策略描述适用场景
Greedy Beam Search保留 top-k 分支实时性要求高
BFS广度优先搜索需要最优解
MCTS蒙特卡洛树搜索搜索空间大
DFS深度优先搜索深度较浅时

评估器设计

def evaluate_thought(thought, context, llm):
    """使用 LLM 作为评估器"""
    prompt = f"""
    评估以下推理步骤的质量(1-5分):
    上下文: {context}
    推理: {thought}
    请只返回分数。
    """
    score = llm.generate(prompt)
    return int(score)

🔄 Reflexion

自我反思循环

反思 Prompt

你在上一个尝试中犯的错误:
- 步骤 2 使用了错误的 API 参数
- 没有检查 API 返回的错误码

改进策略:
- 先查阅 API 文档确认参数格式
- 每一步都检查返回状态

请基于以上反思重新尝试。

Reflexion 优势

特性传统 AgentReflexion
错误处理重新开始基于经验改进
多轮成功率低(同样错误反复)高(记住教训)
训练成本高(需要大量 prompt)低(自我改进)

📐 其他架构

架构特点适用场景
Chain-of-Thought逐步推理简单数学/逻辑
Graph of Thoughts图结构组合多步骤复合任务
Multimodal CoT多模态推理图文/视频任务
Auto-CoT自动生成 CoT无标注数据场景
Eureka组合多种策略复杂科研任务

📊 方法对比

方法复杂度效果速度可解释性
ReAct⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
Plan-and-Execute⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
Tree of Thoughts⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
Reflexion⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐

📚 延伸阅读

  • ReAct — 推理与行动��同
  • Tree of Thoughts — 树状推理
  • Reflexion — 自我反思学习
  • Graph of Thoughts — 图结构推理
在线编辑文档
上次更新: 2026/4/28 17:49
贡献者: colewort
Prev
记忆系统
Next
多 Agent 协作