Google 今天把 Gemini Deep Research 升级成了两个版本:Deep Research 和 Deep Research Max。
Deep Research 走速度和成本优先的路线,适合做成即问即答的研究助手嵌到用户界面里。
Max 版则反过来:跑更长时间、烧更多算力,
反复搜索、反复推理、反复打磨报告。官方给的典型场景是分析师晚上下班前触发一个尽调任务,第二天早上上班,一份完整报告已经躺在邮箱里。
两个版本背后都是 Gemini 3.1 Pro,就是 Google 今年 2 月发布的那个推理能力相比 3 Pro 翻倍的模型。
【1】能插上自己的数据了
过去的 Deep Research 只能搜开放的互联网。这次最关键的变化是支持了 MCP。
开发者现在可以把 FactSet、S&P、PitchBook 这类专业付费数据源接进来,让 Deep Research 在这些金融和市场数据库里翻找资料,而不是只能靠公开网页。Google 已经在和这三家合作设计 MCP 接口。
此外还能把 PDF、CSV、图片、音频、视频当成研究素材直接喂进去;可以让它同时调用 Google Search、URL Context、代码执行、File Search,也可以把联网完全关掉,只在内部数据里查。
报告里现在会直接生成图表和信息图。图表用 HTML 渲染,信息图调用 Nano Banana。研究过程支持流式输出,能实时看到数字智能体当前在想什么、搜到了什么。
还有一个叫“协同规划”的功能:数字智能体先给出一份研究计划,用户可以在它开跑之前调整范围。对那些容易跑偏、需要人工把关的研究任务挺实用。
从今天起在 Gemini API 的付费档里以公开预览版提供,通过 Interactions API 调用。Google Cloud 上的企业版本即将上线。
官方没有公布具体定价。