C
ChaoBro

Инфраструктура песочниц для AI-агентов: от сред исполнения к экосистемным слоям

Инфраструктура песочниц для AI-агентов: от сред исполнения к экосистемным слоям

Если вы следили за разработкой AI-агентов за последний месяц, вы заметили слово, которое постоянно всплывает: песочница.

Не традиционная Docker-контейнерная песочница, а среда исполнения, специально разработанная для AI-агентов — способная запускать сгенерированный LLM код, с изоляцией файловой системы, сетевыми ограничениями, контролем прав и возможностью подключения к внешним инструментам и сервисам.

Это пространство быстро формируется.

Почему песочницы внезапно стали важны

Агенты теперь умеют писать код, но где выполнять стало главной инженерной проблемой.

Claude Code, Codex, Cursor — у всех есть свои собственные слои песочниц. Но они не предоставляют их внешним пользователям. Если вы хотите создать пользовательский агентный продукт — скажем, позволить пользователям описывать требования на естественном языке, а агент автоматически выполняет разработку — вам нужна безопасная, контролируемая среда исполнения для запуска кода, сгенерированного агентом.

Вот для чего существует инфраструктура песочниц.

Текущие слои экосистемы

Примерно это пространство делится на три слоя:

Нижний слой: облачные провайдеры песочниц

  • E2B: самый ранний агентный sandbox-as-a-service, предоставляющий изолированные среды исполнения кода
  • Modal: предлагает вычислительные ресурсы в serverless-формате, широко используется как бэкенд исполнения для агентных фреймворков
  • Daytona: фокусируется на песочницах сред разработки, недавно pivot в сторону агентов

Средний слой: песочницы уровня фреймворка

  • flue (withastro): TypeScript агентный фреймворк песочницы с открытым исходным кодом от сооснователя Astro Fred K. Schott, только что выпущен 0.4.1
  • AgentScope Runtime: агентный рантайм производственного уровня со встроенным управлением жизненным циклом песочницы
  • Anthropic Managed Agents: собственная управляемая агентная инфраструктура Anthropic, включая исполнение в песочнице

Верхний слой: интегрированные решения

  • Claude Code: встроенная песочница, не предоставляется внешне, но задаёт отраслевой стандарт
  • OpenAI Codex: аналогично имеет встроенную песочницу, недавно обновлена с каталогом навыков
  • Cursor: редактор со встроенной средой исполнения агентов

Ключевые вызовы

Безопасность на первом месте. Сгенерированный LLM код непредсказуем, и песочницы должны защищать от escape из контейнера, повышения прав и эксфильтрации данных. В 2024-2025 годах уже было несколько публичных CVE escape из контейнеров (например, CVE-2024-21626 runc escape), и продукты AI-песочниц, запущенные AWS, Google и Azure в 2025-2026 годах, без исключения используют уровни изоляции выше стандартного Docker.

Отсутствие стандартов. В настоящее время не существует единого API агентной песочницы. У E2B свой, у Modal свой, у Anthropic ещё один. flue пытается стандартизировать, но ещё рано.

Стоимость. Песочницы не бесплатны. Каждое исполнение агента требует запуска изолированной среды, выделения ресурсов и уничтожения после выполнения. Эти затраты напрямую отражаются в ценах продуктов. Для высокочастотных агентных приложений накладные расходы песочницы могут превысить стоимость вызовов модельного API.

Оценка

Слой песочниц переходит от «компонента внутри агентного фреймворка» к «независимому инфраструктурному слою». Этот тренд стал ясным в первой половине 2026 года.

Совет разработчикам: если вы делаете агентный продукт, не создавайте песочницу сами. Либо используйте готовые сервисы типа E2B или Modal, либо используйте open-source фреймворк типа flue. Риск и стоимость создания изоляции Docker с нуля не стоит того.

Сигнал для инвесторов: агентные песочницы следуют тем же путём, что и «database-as-a-service» в начале 2020-х — переход от встроенного компонента к самостоятельному инфраструктурному слою. Кто выиграет этот слой, зависит от того, кто предложит лучшие гарантии безопасности и наименьшую задержку.

Что наблюдать дальше: следующий раунд финансирования E2B (если будет), и сможет ли flue построить экосистему коннекторов в open-source сообществе. Ценность песочницы не в самой песочнице — в том, к скольким сервисам она может подключиться.

Основные источники:

  • Проект GitHub withastro/flue
  • Глубокий анализ архитектуры песочниц для AI-агентов
  • Документация AgentScope Runtime
  • Официальная документация Anthropic Managed Agents