Каталог моделей Cloudflare Workers AI только что получил переливание крови.
Новые GLM-4.7-Flash и Gemma-4-26B-A4B-IT добавлены, старые модели Llama и Kimi помечены на депрекейт — уйдут после 30 мая.
Если вы запускаете инференс на Workers AI, вам нужно проверить зависимости моделей прямо сейчас.
Новые модели: GLM-4.7-Flash и Gemma-4-26B-A4B-IT
GLM-4.7-Flash от Zhipu, позиционируется как лёгкий быстрый инференс. Логика названия "Flash" ясна: пожертвовать частью глубины рассуждений ради скорости и преимущества в стоимости. Если ваш сценарий — высокочастотные вызовы, чувствительные к задержкам, Flash — правильный выбор.
Gemma-4-26B-A4B-IT — MoE-версия Gemma 4 от Google, 26B всего параметров, 4B активных, instruction-tuned. Позиционирование этой модели — "сильный среди моделей среднего размера" — управляемое количество параметров, но не отстаёт от более крупных моделей в следовании инструкциям и кодовых способностях.
→ Дополнительное чтение: Cloudflare Agent Memory техническая | Скандал OpenClaw Git Scan
Основные источники: