DeepSeek は4月8日にこっそり3つのモードのテストを配信:クイック、エキスパート、ビジュアルの3系統で分流され、コミュニティでは V4 が正式にリリースされる前の最後のウォームアップと見なされている。
(前情提要:DeepSeek V4 はエヌビディアを拒否し、華為を選ぶ!アリババ、バイトダンス、テンセントが昇騰 950PR チップの買い増しを争う)
(背景補足:DeepSeek V4 がエヌビディアを捨てると宣言!中国のAI「計算能力の独立」突…)
この記事の目次
Toggle
4月8日未明、DeepSeek のWebサイトとアプリで同時に更新が配信され、インターフェースが3つのモード選択肢になった。これは機能が完成した正式なローンチではなく、一部のユーザーを対象にした先行テストだが、メッセージが出るとコミュニティはすぐにそれをV4の公開スケジュールと結び付けた。
3つのモードの役割分担はかなり明確だ:
**クイックモード(Fast Mode)**はデフォルトの選択肢で、日常会話と即時の応答を想定。軽量・低遅延のモデルを使用し、使用上限の制限はないが、添付はテキストの抽出のみ対応し、画像や音声は扱わない。
**エキスパートモード(Expert Mode)**は複雑な推論タスク向けで、深い思考モードに対応。コミュニティの実測では、1回の推論で500秒を超える思考時間が発動し得るという。 このモードはピーク時間帯には待ちが必要で、添付や音声のアップロードには対応していない。現在もテスト段階であり、全ユーザーにはまだ開放されていない。
**ビジュアルモード(Vision Mode)**は3つの中で最も象徴的なものだ。これはDeepSeek が消費者向けで初めて視覚入力を正式にサポートしたことを意味し、多モーダル能力はAPI層だけの技術選択肢ではなく、一般ユーザーに直接向けたものになっている。
全体のロジックはこうだ:計算リソースの消費をタスクの種類で分流し、高頻度かつ低需要はクイック通路へ、高計算の推論はエキスパート通路へ、図や文字の入力はビジュアル通路へ。 この設計自体は新しいものではないが、DeepSeek は中国のトップクラスのモデルの中で、消費者向けのプロダクト領域でこのようにやった最初の存在だ。
今回のテストについてのコミュニティの議論は、すぐに1つの技術的疑点に集中した。
一部のテストユーザーは、エキスパートモードの回答品質がクイックモードよりもわずかにしか改善しておらず、想像ほどの差はないことに気付いた。さらに重要なのは、ユーザーがモデル自身に直接尋ねたところ、返ってきた内容が「2つのモードの下層アーキテクチャは同じで、違いは主に system prompt の調整によるものだ」ということだった。
もしそれが事実なら、「エキスパートモード」の本質は、独立した推論モデルというより、調整されたシステムプロンプトにより近い。
DeepSeek はこの疑念に対して正式な回答はしていない。外部の視点からは、解釈として2つの可能性がある。1つ目は、これはグレースケール段階の暫定設定で、真のモデルの層分けは V4 のローンチ後に有効化されるというもの。2つ目は、層分け設計の目的が元々モデル層の切り替えではなく、異なる推論予算とシステム設定によって計算リソースの消費を制御し、より多くのユーザーが同時に利用できるようにすることにある、というものだ。
3つのモードのインターフェース自体は、ユーザー体験のレベルでのアップグレードだ。しかし、その背後につながる V4こそが、今回の更新で本当の重みを持つ部分だ。
DeepSeek チームは、V4 が4月に延期されることを確認している。主な理由は華為昇騰チップの深い適応作業だ。すでに知られている技術仕様はかなり攻めている:1兆パラメータ規模、SWE-bench のエンコード能力テストで81%の合格率、API の価格 $0.30/MTok、そして自社開発の長期記憶技術 Engram:条件付きの記憶メカニズムで、モデルが対話をまたいでユーザーの嗜好や文脈を保持できるようにする。
ただし、V4 で最も観察すべきなのは、計算基盤の選択だ。
もしV4 が本当に華為昇騰や寒武紀などの国産チップ上で完全に実行されるなら、それは消費者向けで規模化される初の、完全にエヌビディア CUDA エコシステムを迂回した主流の大規模モデルになる(ただし、エヌビディアの大量のチップが中国に密輸されていることも私たちは知っているため、背後の実情はさらに複雑だ)。