Объявление функции от Google на Cloud Next положило конец дебатам, в которых большинство предприятий даже не осознавали своего участия: какой протокол должны использовать AI-агенты для подключения к внешним инструментам?
Что произошло
Google объявила, что её облачная платформа теперь поддерживает «Bring Your Own MCP» (BYO MCP), позволяя предприятиям напрямую подключать развёрнутые ими MCP-серверы к AI-моделям и сервисам Google. Это означает:
- Модели Gemini могут вызывать внутренние базы данных, API и бизнес-системы через MCP
- Предприятиям больше не нужно разрабатывать отдельные адаптеры для Google AI; существующие MCP-серверы можно переиспользовать
- Google перешла от «поддержки только собственного протокола» к «принятию отраслевых стандартов»
Предыстория: три протокола полгода назад
Полгода назад в области интеграции инструментов AI-агентов было три основных конкурента:
| Протокол | Источник | Позиционирование |
|---|---|---|
| MCP | Anthropic | Открытый протокол инструментов агентов |
| Function Calling | OpenAI | Специализированный механизм вызова функций для моделей GPT |
| Протоколы вендоров | Различные AI-платформы | Использование в закрытых экосистемах |
Тогда ситуация была: если вы использовали модели Anthropic — MCP; если модели OpenAI — Function Calling; другие платформы имели свои подходы. Предприятия, использующие нескольких провайдеров моделей, должны были поддерживать несколько наборов кода интеграции инструментов.
Объявление BYO MCP от Google — это, по сути, признание MCP отраслевым стандартом.
Что это значит для предприятий
1. Сокращение дублирующей разработки
Больше не нужно писать отдельный код интеграции инструментов для каждого провайдера AI-моделей. Один MCP-сервер может обслуживать Claude, Gemini и любую модель, поддерживающую MCP.
2. Сохранение выбора поставщика
Когда слой интеграции инструментов стандартизирован, стоимость переключения провайдеров моделей значительно снижается. Сегодня Gemini + ваш MCP, завтра Claude + тот же MCP, без изменения кода интеграции.
3. Снижение порога AI-фикации внутренних систем
У многих предприятий есть внутренние системы (ERP, HR, финансы), нуждающиеся в доступе AI-агентов. BYO MCP означает: разработав MCP-сервер один раз для этих систем, его можно использовать на множестве AI-платформ.
Быстрый старт
Чтобы попробовать BYO MCP в Google Cloud:
# 1. Разверните ваш MCP-сервер (пример с файловой системой)
npx @modelcontextprotocol/server-filesystem /allowed/path
# 2. Зарегистрируйте MCP-сервер в Google Cloud AI Platform
# Настройте через Google Cloud Console или API
# Укажите эндпоинт и метод аутентификации MCP-сервера
# 3. Вызовите из приложений Gemini
# Модель обнаружит и вызовет ваши зарегистрированные инструменты через MCP
Подробные шаги настройки см. в официальной документации Google Cloud о BYO MCP.
На что обратить внимание
- Границы безопасности: BYO MCP означает, что предприятия сами управляют политиками безопасности MCP-серверов. Google предоставляетфреймворк интеграции, но контроль разрешений вызовов инструментов — ответственность пользователя
- Производительность: MCP — это слой протокола, добавляющий накладные расходы сериализации/десериализации по сравнению с нативными API-вызовами; сценарии, чувствительные к задержкам, требуют оценки
- Совместимость версий: Протокол MCP всё ещё развивается; отслеживайте влияние обновлений версий на существующие серверы
Оценка ландшафта
С присоединением Google к экосистеме MCP и продолжающимся продвижением Anthropic, позиция MCP как стандарта интеграции инструментов AI-агентов довольно прочна. Для корпоративных AI-команд сейчас хорошее окно для изучения и развёртывания MCP — стандарт сходится, но экосистема инструментов быстро расширяется.
За чем следить: примет ли OpenAI официально MCP, выпустят ли больше SaaS-вендоров официальные MCP-серверы, и зрелость MCP в корпоративном.security аудите.
Основные источники:
- Официальные объявления Google Cloud Next
- Документация Google Cloud AI Platform
- Официальная спецификация протокола MCP