C
ChaoBro

Cloudflare Workers AI、モデルカタログを更新:GLM-4.7-FlashとGemma-4-26Bが投入、旧モデルは5月30日に非推奨

Cloudflare Workers AI、モデルカタログを更新:GLM-4.7-FlashとGemma-4-26Bが投入、旧モデルは5月30日に非推奨

Cloudflare Workers AIのモデルカタログが入れ替わった。

新しいGLM-4.7-FlashとGemma-4-26B-A4B-ITが追加され、古いLlamaとKimiモデルは非推奨マーク——5月30日以降は使えなくなる。

Workers AIで推論を走らせているなら、今すぐモデル依存をチェックする必要がある。

新モデル:GLM-4.7-Flash と Gemma-4-26B-A4B-IT

GLM-4.7-Flash は智譜から、軽量高速推論としてポジショニングされている。「Flash」の命名ロジックは明確:推論深度の一部を犠牲にして速度とコストの優位性を得る。高頻度呼び出し、レイテンシーに敏感なシナリオなら、Flashが正しい選択だ。

Gemma-4-26B-A4B-IT はGoogleのGemma 4シリーズのMoE版、260億総パラメータ、40億アクティブパラメータ、インストラクションチューニング済み。このモデルのポジショニングは「中小型モデルの中の強者」——パラメータ数は抑えつつ、指示追従とコード能力で大きなモデルに劣らない。

→ 関連記事:Cloudflare Agent Memory技術 | OpenClaw Git Scan論争


主要ソース: