Google 在 Cloud Next 大会上的一个功能发布,终结了一场大多数企业甚至没意识到自己在参与的争论:AI Agent 该用什么协议接入外部工具。
发生了什么
Google 宣布 Cloud 平台支持 “Bring Your Own MCP”(BYO MCP),企业可以把自己部署的 MCP Server 直接接入 Google 的 AI 模型和服务。这意味着:
- Gemini 模型可以通过 MCP 调用企业内部的数据库、API 和业务系统
- 企业不需要为 Google AI 单独开发适配层,已有的 MCP Server 可以直接复用
- Google 从”只支持自家协议”转向”拥抱行业标准”
背景:六个月前的三协议混战
半年前,AI Agent 的工具接入领域有三个主要竞争者:
| 协议 | 发起方 | 定位 |
|---|---|---|
| MCP | Anthropic | 开放的 Agent 工具协议 |
| Function Calling | OpenAI | GPT 模型的专用函数调用机制 |
| 各厂商自定义协议 | 各类 AI 平台 | 封闭生态内使用 |
当时的局面是:如果你要用 Anthropic 的模型,走 MCP;用 OpenAI 的模型,走 Function Calling;用其他平台,可能又是另一套。企业如果要同时用多个模型提供商,就要维护多套工具接入代码。
Google 的 BYO MCP 声明,实质上是对 MCP 作为行业标准的认可。
对企业意味着什么
1. 减少重复开发
不再需要为每个 AI 模型提供商写一套工具接入代码。一套 MCP Server,可以服务于 Claude、Gemini 以及所有支持 MCP 的模型。
2. 保留供应商选择权
当工具接入层标准化后,企业在模型层切换供应商的成本大幅降低。今天用 Gemini + 自有 MCP,明天换 Claude + 同一个 MCP,接入代码不需要改。
3. 内部系统的 AI 化门槛降低
很多企业有内部系统(ERP、HR、财务)需要 AI Agent 调用。BYO MCP 意味着只需要为这些系统开发一次 MCP Server,就可以被多个 AI 平台使用。
快速上手
如果你想在 Google Cloud 上尝试 BYO MCP:
# 1. 部署你的 MCP Server(以文件系统为例)
npx @modelcontextprotocol/server-filesystem /allowed/path
# 2. 在 Google Cloud AI Platform 中注册 MCP Server
# 通过 Google Cloud Console 或 API 配置
# 指定 MCP Server 的端点和认证方式
# 3. 在 Gemini 应用中调用
# 模型会通过 MCP 发现并调用你注册的工具
具体配置步骤请参考 Google Cloud 官方文档中关于 BYO MCP 的说明。
需要注意的点
- 安全边界:BYO MCP 意味着企业自行管理 MCP Server 的安全策略。Google 提供接入框架,但工具调用的权限控制由用户负责
- 性能开销:MCP 是一个协议层,相比原生 API 调用会有一定的序列化/反序列化开销,对延迟敏感的场景需要评估
- 版本兼容:MCP 协议本身还在演进中,需要关注版本升级对已有 Server 的影响
格局判断
Google 加入 MCP 生态,加上此前 Anthropic 的持续推动,MCP 作为 AI Agent 工具接入标准的位置已经相当稳固。对于企业 AI 团队来说,现在是学习和部署 MCP 的好窗口期——标准正在收敛,但工具生态还在快速扩张。
后续值得关注的是:OpenAI 是否会正式拥抱 MCP、更多 SaaS 厂商是否会发布官方 MCP Server、以及 MCP 在企业级安全审计方面的成熟度。
主要来源:
- Google Cloud Next 大会官方发布
- Google Cloud AI Platform 文档
- MCP 协议官方规范