这个思路可以借鉴,将传统 deep research agent 分成两个阶段,先尽可能的搜索可能的信息,保存成本地文件,然后基于本地文件去生成报告。
原推翻译:
在2025年,深度研究的套路非常直线:上网搜索 → 阅读内容 → 逻辑推理 → 不断重复,直到得出结果。在这个过程中,哪怕是执行最小的循环步骤,AI 都会去互联网上重新抓取一遍数据。
但到了2026年,处理长周期任务被明确划分成了两个截然不同的阶段:
阶段一:通过网络读写进行调研与规划。 这一阶段仍然是搜索、阅读和推理,但请注意,目标不再是直接给出最终答案。它的唯一任务是把互联网上的零散知识“具象化”,全部沉淀并保存成我们本地硬盘里的文件(比如 .md、.json 或 .csv 格式的文件)。
阶段二:智能体“挂载”本地文件,开启内循环。 这时,AI 智能体像插入硬盘一样挂载这些整理好的本地文件,然后只对着这些文件进行阅读、执行代码和写入操作。从此以后,它再也不需要通过联网来做信息对齐(grounding)了。
为什么要在第二阶段毫不留情地砍掉联网获取信息的环节呢?原因有四点:
1. 确定性(Determinism): 本地文件就像是时间静止的快照,里面的内容绝不会变。而网上的内容太不稳定了,随时可能被修改、变成 404 无法访问,或者突然弹出一个付费墙拦住你的去路。
2. 速度(Speed): 读取本地硬盘的数据只需要几毫秒,而去网上抓取一个网页动辄要花上好几秒。AI 智能体在执行循环任务时,需要的是飞快、紧凑的迭代速度,网络延迟是绝对等不起的。
3. 一致性(Consistency): 当你需要交叉核对多项信息时,前提是你得在同一个资料库里比对,而不是每次上网搜回来的都是不同版本的说辞。
4. 成本(Cost): 每次联网读取网页,大语言模型(LLM)都要浪费大量 Token 去解析网页里乱七八糟的 HTML 代码噪音(比如广告、各种导航栏)。而本地文件早就是清洗得干干净净的纯文本了。
这种两阶段的方法,实现了“探索与利用的解耦”(exploration-exploitation decoupling)。
阶段一就是纯粹的探索:广撒网,多捕鱼,收集有用的信号,搭建起一个专属于当前任务的本地知识库。阶段二则是进入纯粹的利用状态:在一堆干净、稳定的数据上进行高效、高频的迭代运算。
而且,因为第二阶段花费的时间往往比第一阶段要长得多,这就导致在2026年的当下,传统意义上的“搜索”所扮演的角色被大大淡化了。在第二阶段里所谓的“搜索”,其实更像是在翻找记忆,纯粹是为了给大语言模型做上下文填充(context filling)而已。
点击图片查看原图