Cloudflare Workers AIのモデルカタログが入れ替わった。
新しいGLM-4.7-FlashとGemma-4-26B-A4B-ITが追加され、古いLlamaとKimiモデルは非推奨マーク——5月30日以降は使えなくなる。
Workers AIで推論を走らせているなら、今すぐモデル依存をチェックする必要がある。
新モデル:GLM-4.7-Flash と Gemma-4-26B-A4B-IT
GLM-4.7-Flash は智譜から、軽量高速推論としてポジショニングされている。「Flash」の命名ロジックは明確:推論深度の一部を犠牲にして速度とコストの優位性を得る。高頻度呼び出し、レイテンシーに敏感なシナリオなら、Flashが正しい選択だ。
Gemma-4-26B-A4B-IT はGoogleのGemma 4シリーズのMoE版、260億総パラメータ、40億アクティブパラメータ、インストラクションチューニング済み。このモデルのポジショニングは「中小型モデルの中の強者」——パラメータ数は抑えつつ、指示追従とコード能力で大きなモデルに劣らない。
→ 関連記事:Cloudflare Agent Memory技術 | OpenClaw Git Scan論争
主要ソース: