MetaがLlama 4 Scoutをオープンソース化:17B/109B MoE、1000万Tokenコンテキストを$0.08で

MetaがLlama 4 Scoutをオープンソース化:17B/109B MoE、1000万Tokenコンテキストを$0.08で

主要な結論

Metaは4月末に Llama 4 Scout を発表 — 17B活性化パラメータ / 109B総パラメータのMoE(混合エキスパート)モデル。

  • 1000万Tokenコンテキストウィンドウ:300ページのドキュメントをチャンク分割なしで直接処理
  • $0.08/M Token入力価格:アグリゲータ経由でOpenAI互換APIを使用
  • オープンウェイト:Muse Sparkがクローズド化する前の、最後のオープンMetaモデル層

アーキテクチャ解读

MoE設計

パラメータ意味
総パラメータ109Bモデル知識の「総容量」
活性化パラメータ17B推論時に実際に使用される量
エキスパート数16ルーティング可能なサブネットワーク数

MoEアーキテクチャの核心:109Bパラメータの知識量を持ちながら、推論コストは17Bモデル並み

価格比較

モデル入力価格 ($/M Token)コンテキスト公開
Llama 4 Scout$0.0810M
GPT-5.5$2.501M
Claude Opus 4.7$15.00200K
DeepSeek-V4-Flash$0.141M

まとめ

Llama 4 Scoutは最強のモデルではないが、最も実用的なモデル — 超低コストで長文書処理の真の課題(チャンク分割の必要性)を解決する。


Metaのオープンソース戦略は「全面公開」から「階層公開」へ移行中。Llama 4 Scoutは最後のチャンスかもしれない。