誰も注目していない角落で、腾讯混元が非常に小さなモデルをリリースした——わずか440MB、1.8Bパラメータ。
小さいことは売りではない。売点は、翻訳効果がTower-Plus-72BやQwen3 35Bを上回ると主張している点だ。
注目すべき理由
72Bパラメータモデルは1.8Bの40倍の体量。もし1.8Bの翻訳品質が72B級モデルに追いつくなら、2つのことを意味する:
翻訳タスクのモデル効率は深刻に過小評価されていた。汎用大モデルは翻訳タスクにおいて大量の冗長パラメータを持つ——コード生成、論理推理、クリエイティブライティングに使われるパラメータで、翻訳には関係ない。
エッジ側翻訳体験が再構築される可能性がある。440MBのモデルはスマホに簡単にローカル配置できる。微信・QQの内蔵翻訳がこのモデルに切り替われば、速度とプライバシーの両方が質的に向上する。
制限
もちろん、これは翻訳タスクのみのパフォーマンス。1.8Bのモデルが汎用能力で72Bと競争できるわけではない。
オフライン翻訳能力が必要な場合、このモデルは注目する価値がある。
主要ソース:X/Twitterコミュニティ議論