多Agent设计的“三省六部幻觉”

当前,CrewAI、MetaGPT等框架流行一种设计模式:让不同AI智能体(Agent)扮演产品经理、架构师等角色,模拟公司部门进行文档传递和流水线作业。然而,一篇深度分析指出,Anthropic、OpenAI和谷歌的工程实践均未采用此方式,并将其称为“三省六部幻觉”。

核心问题:假边界与信息衰减

  1. 假边界:人类分工源于能力局限,但大语言模型(LLM)既能写需求也能写代码,并无“专业壁垒”。为Agent贴上角色标签,非但不能使其更专业,反而可能导致其在遇到角色外问题时直接跳过,错失最有价值(常发生在边界上)的推理。
  2. 信息在流转中死亡:Agent A将结论(而非推理过程)以文档形式传给Agent B,B需重建上下文,导致隐含假设逐层丢失。链条越长,越容易出现“每个节点都对,整体已偏离”的情况。

与状态文件的本质区别

反驳观点认为,三大厂商也使用progress.txt、spec等文件。关键区别在于:

  • 角色间文档:是单向交接,信息被压缩为结论后传递即终止。
  • 状态文件:是同一任务的增量日志,由同一角色在不同时间点读写,实现信息的连续积累和推理链的跨会话连贯。

三大厂商的实践方案

  • Anthropic

    • 将新会话比作“轮班工程师”,用progress.txt作为交班记录。
    • 首个会话由专门的Initializer Agent搭建环境并撰写操作手册,后续会话读取后继续工作。
    • 采用orchestrator-worker模式:一个主Agent拆分任务,多个子Agent并行探索不同方向,结果回流汇总,而非流水线接力。
  • OpenAI

    • 任务启动时用spec文件锁定目标,防止产出偏离方向。
    • runbook同时充当操作手册和审计日志。
    • 引入Skills(可复用的版本化指令集,本质是工具和操作规程,而非角色)。
    • GPT-5.3-Codex曾借此机制连续运行约25小时,完成一个完整设计工具,全程保持连贯。
  • 谷歌

    • 利用1M token长上下文扩大窗口。
    • 将项目意图写入代码库的持久化Markdown文件,不依赖聊天记录。
    • Gemini 3引入“Thought Signatures”,在长会话中保存推理链关键节点,防止逻辑前后矛盾。

提炼的共同原则

  1. 多Agent的核心价值在于并行覆盖搜索空间,而非模拟人类分工。数据表明,token用量解释了80%的性能差异——投入更多Agent本质是投入更多算力并行探索。
  2. 验证环节应专注于挑错,而非接棒执行
  3. 工具决定Agent的能力,角色标签只影响其意愿
  4. 保持架构可演化比追求“完美架构”更重要。模型能力快速迭代,今日的补丁可能成为明日的死代码(如Anthropic为旧模型行为添加的机制在新模型上失效的案例)。

🔥 实时行情点位,群内抢先看!

进群蹲精准做单提示→青岚免费交易社群 (电报)

以上仅为青岚姐个人观点,不作为投资建议,交易需谨慎|本文由青岚加密课堂整理优化