著者:ブルース最近、テック界と投資界は皆同じことに注目している:AIの応用が従来のSaaSを「殺しに」かかっているということだ。@AnthropicAIのClaude Coworkが、メール作成やPPT作成、Excel分析をいとも簡単に行えることを披露して以来、「ソフトウェアは死んだ」というパニックが広がり始めた。確かに衝撃的だが、もしここだけに目を向けていると、真の大地震を見逃すことになる。これはまるで、私たち全員が空中のドローン戦闘に目を奪われている間に、足元の大陸プレートが静かに動いているのを誰も気づいていないようなものだ。本当の嵐は水面下に潜み、多くの人が見ていない場所で起きている:AIの基盤を支える計算能力の土台で、静かなる革命が進行している。この革命は、AIの販売者であるNVIDIA@nvidiaが、想像以上に早く終わらせるかもしれない。交差する二つの革命の道この革命は一つの出来事ではなく、見た目は独立した二つの技術路線が絡み合っている。まるで二つの軍隊が包囲網を形成し、NVIDIAのGPUの覇権に対して締め付けをかけているかのようだ。第一の道は、アルゴリズムのスリム化革命だ。考えてみてほしい。超巨大な頭脳が問題を解くとき、本当にすべての脳細胞を動員する必要があるのか?明らかに必要ない。DeepSeekはこの点を理解し、MoE(混合専門家モデル)のアーキテクチャを開発した。これを一つの会社に例えると、数百人の異なる分野の専門家を養成しているようなものだ。しかし、会議で問題を解決するときは、最も関係の深い2、3人だけを呼び出せば十分で、全員を集めてブレインストーミングをする必要はない。これがMoEの賢さだ:巨大なモデルが、計算のたびに「専門家」の一部だけを活性化させることで、計算資源を大幅に節約できる。結果はどうなるか?DeepSeek-V2モデルは、名目上2360億の「専門家」(パラメータ)を持つが、実働時にはそのうちの210億だけを活性化させており、総数の約9%未満だ。それでいて、その性能は、100%全力稼働のGPT-4に匹敵する。これは何を意味するか?AIの能力と消費する計算資源が、切り離されつつあるということだ。従来、私たちはAIが強くなるほど消費するGPUも増えると考えていた。しかし、DeepSeekは、賢いアルゴリズムを使えば、同じ効果を得るのにコストの十分の一で済むことを示した。これは、英偉達のGPUの必要性に大きな疑問符を投げかける。第二の道は、ハードウェアの「道を変える」革命だ。AIの作業は、トレーニングと推論の二段階に分かれる。トレーニングは学校の勉強のようなもので、膨大な書籍を読む必要がある。この段階では、GPUのような「大力出奇跡」の並列計算カードが有効だ。しかし、推論は日常的にAIを使う場面であり、反応速度が最も重要だ。GPUには推論時に本質的な欠陥がある:メモリ(HBM)が外付けであり、データの往復に遅延が生じる。これは、シェフが食材を隣の部屋の冷蔵庫から取り出すようなもので、いくら速くてもその動作は遅くなる。これに対し、CerebrasやGroqといった企業は、専用の推論用チップを設計し、メモリ(SRAM)をチップに直接搭載、食材を手元に置くことで「遅延ゼロ」のアクセスを実現している。市場はすでに真剣に投票している。OpenAIは、英偉達のGPU推論の不備を不満に思いながらも、すぐにCerebrasと100億ドル規模の契約を結び、推論サービスを借りている。英偉達も慌てて、200億ドルを投じてGroqを買収し、この新たな競争路線で遅れを取らないようにしている。二つの道が交わるとき:コストの崩壊さて、これら二つの事象を一緒に考えよう。アルゴリズムの「スリム化」により軽量化されたDeepSeekモデルが、遅延ゼロのCerebrasチップ上で動作していると想像してみてほしい。何が起きるか?コストの雪崩だ。まず、スリム化されたモデルは非常に小さく、チップの内蔵メモリに一度に全部収まる。次に、外部メモリのボトルネックがなくなることで、AIの反応速度は驚くほど高速になる。最終的に、MoEアーキテクチャによるトレーニングコストは90%削減され、推論コストも専用ハードとスパース計算によってさらに桁違いに低下する。計算結果として、世界クラスのAIを所有・運用する総コストは、従来のGPU方案の10〜15%程度にまで縮小する可能性がある。これは単なる改良ではなく、パラダイムシフトだ。英偉達の王座は、静かにその絨毯を剥がされつつある今や、なぜこれが「Cowork恐慌」よりも致命的なのか、理解できるだろう。英偉達の時価総額数兆円は、「AIは未来であり、その未来は私のGPUにかかっている」という単純なストーリーに基づいている。しかし、今やその土台が揺らぎ始めている。トレーニング市場では、たとえ英偉達が引き続き独占しても、顧客が十分の一のGPUで作業できるなら、市場全体の規模は大きく縮小する可能性がある。推論市場では、このトレーニングの十倍の規模の市場で、英偉達は絶対的優位を持たず、GoogleやCerebrasなどの競合に囲まれている。最大の顧客であるOpenAIさえも離反し始めている。もしウォール街が、英偉達の「シャベル」がもはや唯一の選択肢ではなく、最良でもないと気づけば、従来の「独占的支配」の期待に基づく評価はどうなるか?誰もが容易に想像できるだろう。したがって、今後半年で最も大きなブラックスワンは、誰かのAI応用が誰かを倒すということではなく、さりげない技術ニュース、例えばMoEアルゴリズムの効率に関する新論文や、専用推論チップの市場シェア拡大を示すレポートが、静かに計算能力戦争の新段階を告げることになる。「販売シャベル」の道具がもはや唯一の選択肢ではなくなるとき、彼らの黄金時代も終わるのかもしれない。
AIの次なる地震:本当の危険はSaaSの殺し手ではなく、計算能力革命にある理由
著者:ブルース
最近、テック界と投資界は皆同じことに注目している:AIの応用が従来のSaaSを「殺しに」かかっているということだ。@AnthropicAIのClaude Coworkが、メール作成やPPT作成、Excel分析をいとも簡単に行えることを披露して以来、「ソフトウェアは死んだ」というパニックが広がり始めた。確かに衝撃的だが、もしここだけに目を向けていると、真の大地震を見逃すことになる。
これはまるで、私たち全員が空中のドローン戦闘に目を奪われている間に、足元の大陸プレートが静かに動いているのを誰も気づいていないようなものだ。本当の嵐は水面下に潜み、多くの人が見ていない場所で起きている:AIの基盤を支える計算能力の土台で、静かなる革命が進行している。
この革命は、AIの販売者であるNVIDIA@nvidiaが、想像以上に早く終わらせるかもしれない。
交差する二つの革命の道
この革命は一つの出来事ではなく、見た目は独立した二つの技術路線が絡み合っている。まるで二つの軍隊が包囲網を形成し、NVIDIAのGPUの覇権に対して締め付けをかけているかのようだ。
第一の道は、アルゴリズムのスリム化革命だ。
考えてみてほしい。超巨大な頭脳が問題を解くとき、本当にすべての脳細胞を動員する必要があるのか?明らかに必要ない。DeepSeekはこの点を理解し、MoE(混合専門家モデル)のアーキテクチャを開発した。
これを一つの会社に例えると、数百人の異なる分野の専門家を養成しているようなものだ。しかし、会議で問題を解決するときは、最も関係の深い2、3人だけを呼び出せば十分で、全員を集めてブレインストーミングをする必要はない。これがMoEの賢さだ:巨大なモデルが、計算のたびに「専門家」の一部だけを活性化させることで、計算資源を大幅に節約できる。
結果はどうなるか?DeepSeek-V2モデルは、名目上2360億の「専門家」(パラメータ)を持つが、実働時にはそのうちの210億だけを活性化させており、総数の約9%未満だ。それでいて、その性能は、100%全力稼働のGPT-4に匹敵する。これは何を意味するか?AIの能力と消費する計算資源が、切り離されつつあるということだ。
従来、私たちはAIが強くなるほど消費するGPUも増えると考えていた。しかし、DeepSeekは、賢いアルゴリズムを使えば、同じ効果を得るのにコストの十分の一で済むことを示した。これは、英偉達のGPUの必要性に大きな疑問符を投げかける。
第二の道は、ハードウェアの「道を変える」革命だ。
AIの作業は、トレーニングと推論の二段階に分かれる。トレーニングは学校の勉強のようなもので、膨大な書籍を読む必要がある。この段階では、GPUのような「大力出奇跡」の並列計算カードが有効だ。しかし、推論は日常的にAIを使う場面であり、反応速度が最も重要だ。
GPUには推論時に本質的な欠陥がある:メモリ(HBM)が外付けであり、データの往復に遅延が生じる。これは、シェフが食材を隣の部屋の冷蔵庫から取り出すようなもので、いくら速くてもその動作は遅くなる。これに対し、CerebrasやGroqといった企業は、専用の推論用チップを設計し、メモリ(SRAM)をチップに直接搭載、食材を手元に置くことで「遅延ゼロ」のアクセスを実現している。
市場はすでに真剣に投票している。OpenAIは、英偉達のGPU推論の不備を不満に思いながらも、すぐにCerebrasと100億ドル規模の契約を結び、推論サービスを借りている。英偉達も慌てて、200億ドルを投じてGroqを買収し、この新たな競争路線で遅れを取らないようにしている。
二つの道が交わるとき:コストの崩壊
さて、これら二つの事象を一緒に考えよう。アルゴリズムの「スリム化」により軽量化されたDeepSeekモデルが、遅延ゼロのCerebrasチップ上で動作していると想像してみてほしい。
何が起きるか?
コストの雪崩だ。
まず、スリム化されたモデルは非常に小さく、チップの内蔵メモリに一度に全部収まる。次に、外部メモリのボトルネックがなくなることで、AIの反応速度は驚くほど高速になる。最終的に、MoEアーキテクチャによるトレーニングコストは90%削減され、推論コストも専用ハードとスパース計算によってさらに桁違いに低下する。計算結果として、世界クラスのAIを所有・運用する総コストは、従来のGPU方案の10〜15%程度にまで縮小する可能性がある。
これは単なる改良ではなく、パラダイムシフトだ。
英偉達の王座は、静かにその絨毯を剥がされつつある
今や、なぜこれが「Cowork恐慌」よりも致命的なのか、理解できるだろう。
英偉達の時価総額数兆円は、「AIは未来であり、その未来は私のGPUにかかっている」という単純なストーリーに基づいている。しかし、今やその土台が揺らぎ始めている。
トレーニング市場では、たとえ英偉達が引き続き独占しても、顧客が十分の一のGPUで作業できるなら、市場全体の規模は大きく縮小する可能性がある。
推論市場では、このトレーニングの十倍の規模の市場で、英偉達は絶対的優位を持たず、GoogleやCerebrasなどの競合に囲まれている。最大の顧客であるOpenAIさえも離反し始めている。
もしウォール街が、英偉達の「シャベル」がもはや唯一の選択肢ではなく、最良でもないと気づけば、従来の「独占的支配」の期待に基づく評価はどうなるか?誰もが容易に想像できるだろう。
したがって、今後半年で最も大きなブラックスワンは、誰かのAI応用が誰かを倒すということではなく、さりげない技術ニュース、例えばMoEアルゴリズムの効率に関する新論文や、専用推論チップの市場シェア拡大を示すレポートが、静かに計算能力戦争の新段階を告げることになる。
「販売シャベル」の道具がもはや唯一の選択肢ではなくなるとき、彼らの黄金時代も終わるのかもしれない。