C
ChaoBro

腾讯、1.8Bパラメータ翻訳モデルをオープンソース化:スマホ上で直接動作、Qwen3-32Bに迫るスコア

腾讯、1.8Bパラメータ翻訳モデルをオープンソース化:スマホ上で直接動作、Qwen3-32Bに迫るスコア

大モデルの競争が終わった後、いよいよ小型モデルの戦場が本格始動しました。

腾讯がひっそりと1.8Bパラメータの翻訳モデルをオープンソース化しました。2bitと1.25bitの2つの量子化バージョンを提供し、スマートフォン上で直接実行でき、翻訳品質スコアはQwen3-32Bレベルに迫ります。

何が起こったのか

項目データ
パラメータ数1.8B
量子化バージョン2bit、1.25bit
対象デバイススマホ上で直接実行可能
翻訳スコアQwen3-32Bレベルに迫る
公開元腾讯
公開時期2026年4月末

なぜ重要なのか

このシグナルは単なる「又一个オープンソースモデル」よりも面白いのです:

1. 特化型小型モデル > 汎用大モデル

1.8Bパラメータの翻訳モデルが32B汎用モデルの翻訳品質を達成できることは、垂直タスクにおいて十分にファインチューニングされた小型モデルが、品質を犠牲にすることなくパラメータ数を大幅に削減できることを示しています。その背後の技術パスは:大モデルからの蒸留 + タスク固有のファインチューニングにより、汎用能力を小型モデルに「凝縮」することです。

2. エッジデバイスでのデプロイが現実になる

2bitと1.25bitの量子化により、モデル重みを極めて小さいサイズに圧縮できます:

  • 2bit版:約450MB
  • 1.25bit版:約280MB

スマートフォンでの実行に全く問題なく、オフライン翻訳やプライバシーに敏感なシナリオに実行可能なソリューションを提供します。

3. 大モデル企業の新たな競争軸

すべての企業がパラメータ規模やベンチマークスコアを競う中で、腾讯は差別化ルートを選びました—特定の能力を極限まで小型化する。これは本質的に「モデル・アズ・ア・サービス」パラダイムへの挑戦です:大規模モデルAPIを呼び出す代わりに、デバイス上に小型モデルをデプロイする。

格局判断

トレンド判断
パラメータ競争「大きいほど良い」から「十分であれば良い」へ転換
デプロイ方式クラウドAPI + エッジ小型モデルのハイブリッドアーキテクチャが主流に
競争焦点汎用能力から垂直ドメインの精度へ
商業化エッジデプロイにより推論コストが削減、価格モデルの変革の可能性

アクション提言

  • モバイル開発者:翻訳、カスタマーサービス、ローカライゼーション関連の機能を開発している場合、1.8B量子化モデルはクラウドAPI呼び出しより優れた選択肢です—レイテンシが低く、コストが制御可能、データがデバイスから出ません
  • 大モデルユーザー:コアニーズが翻訳である場合、32B以上の汎用モデルにお金を払う必要はありません。小型モデルで十分、しかも高速です
  • モデル研究者:蒸留 + 量子化 + タスクファインチューニングの技術ルートは注目に値します。これが2026年で最もコスト効率の高いモデル最適化パスかもしれません