大モデルの競争が終わった後、いよいよ小型モデルの戦場が本格始動しました。
腾讯がひっそりと1.8Bパラメータの翻訳モデルをオープンソース化しました。2bitと1.25bitの2つの量子化バージョンを提供し、スマートフォン上で直接実行でき、翻訳品質スコアはQwen3-32Bレベルに迫ります。
何が起こったのか
| 項目 | データ |
|---|---|
| パラメータ数 | 1.8B |
| 量子化バージョン | 2bit、1.25bit |
| 対象デバイス | スマホ上で直接実行可能 |
| 翻訳スコア | Qwen3-32Bレベルに迫る |
| 公開元 | 腾讯 |
| 公開時期 | 2026年4月末 |
なぜ重要なのか
このシグナルは単なる「又一个オープンソースモデル」よりも面白いのです:
1. 特化型小型モデル > 汎用大モデル
1.8Bパラメータの翻訳モデルが32B汎用モデルの翻訳品質を達成できることは、垂直タスクにおいて十分にファインチューニングされた小型モデルが、品質を犠牲にすることなくパラメータ数を大幅に削減できることを示しています。その背後の技術パスは:大モデルからの蒸留 + タスク固有のファインチューニングにより、汎用能力を小型モデルに「凝縮」することです。
2. エッジデバイスでのデプロイが現実になる
2bitと1.25bitの量子化により、モデル重みを極めて小さいサイズに圧縮できます:
- 2bit版:約450MB
- 1.25bit版:約280MB
スマートフォンでの実行に全く問題なく、オフライン翻訳やプライバシーに敏感なシナリオに実行可能なソリューションを提供します。
3. 大モデル企業の新たな競争軸
すべての企業がパラメータ規模やベンチマークスコアを競う中で、腾讯は差別化ルートを選びました—特定の能力を極限まで小型化する。これは本質的に「モデル・アズ・ア・サービス」パラダイムへの挑戦です:大規模モデルAPIを呼び出す代わりに、デバイス上に小型モデルをデプロイする。
格局判断
| トレンド | 判断 |
|---|---|
| パラメータ競争 | 「大きいほど良い」から「十分であれば良い」へ転換 |
| デプロイ方式 | クラウドAPI + エッジ小型モデルのハイブリッドアーキテクチャが主流に |
| 競争焦点 | 汎用能力から垂直ドメインの精度へ |
| 商業化 | エッジデプロイにより推論コストが削減、価格モデルの変革の可能性 |
アクション提言
- モバイル開発者:翻訳、カスタマーサービス、ローカライゼーション関連の機能を開発している場合、1.8B量子化モデルはクラウドAPI呼び出しより優れた選択肢です—レイテンシが低く、コストが制御可能、データがデバイスから出ません
- 大モデルユーザー:コアニーズが翻訳である場合、32B以上の汎用モデルにお金を払う必要はありません。小型モデルで十分、しかも高速です
- モデル研究者:蒸留 + 量子化 + タスクファインチューニングの技術ルートは注目に値します。これが2026年で最もコスト効率の高いモデル最適化パスかもしれません