Google、TurboQuantの新アルゴリズムを発表:AIの記憶容量の要求を6倍圧縮し、メモリー株が全面的に下落

動區BlockTempo

Googleは訓練不要のTurboQuant圧縮アルゴリズムを発表し、AIのメモリ需要を少なくとも6倍圧縮できると主張しています。この発表後、メモリ株は一斉に急落しましたが、アナリストの見解は分かれています。
(前提:Googleは2029年までに量子暗号の移行を完了させる予定で、政府の目標より6年前倒し。暗号産業も追随が必要です)
(補足背景:ウォール・ストリート・ジャーナルによると、トランプ大統領はザッカーバーグ、黄仁勳、エリソンをPCASTに招き、「アメリカAI国家チーム」を構築予定)

新しいアルゴリズムにより、メモリ関連株が全面的に崩壊?Google Researchは25日に正式にTurboQuant圧縮アルゴリズムを発表し、大型言語モデル(LLM)のKVキャッシュを3ビットに量子化し、モデルの精度を損なわずにメモリ使用量を少なくとも6倍圧縮できると主張しています。

この情報が出た後、メモリ大手のマイクロンは25日の取引中に一時6.1%下落し、終値は382.09ドルとなり、3週間ぶりの安値を記録しました。一方、サンディスクは3.5%、シーゲイトは2.59%、ウエスタンデジタルは1.63%下落し、メモリ株全体が崩壊しました。

アジア市場も同時に圧迫され、サムスン電子は始値から3.6%下落、SKハイニックスは4.5%下落しました。投資家の論理は単純明快です:もしAIモデルがこれまでほど多くのメモリを必要としなくなれば、最近の部品不足で支えられてきた価格決定権は揺らぐ可能性があります。

TurboQuant技術解説:二段階誤差除去で8倍高速化

KVキャッシュ(Key-Value Cache)は、LLMが「記憶」している処理済みデータの核心メカニズムであり、過去の注意力データを保存し、各トークン生成時に再計算を避ける役割を果たします。しかし、コンテキストウィンドウの拡大に伴い、KVキャッシュはメモリの大きなボトルネックとなっています。

TurboQuantはこの問題に焦点を当てています。Googleは、従来のベクトル量子化手法ではメモリ内で各値に約1〜2ビットの追加オーバーヘッドが生じると指摘し、TurboQuantは二段階の処理によりこの負担を徹底的に排除します。

第一段階では、PolarQuant法を用いてデータベクトルを回転させ、高品質な圧縮を実現します。
第二段階では、Quantized Johnson-Lindenstraussアルゴリズムを用いて残留誤差を除去します。

NVIDIAのH100 GPUでのベンチマークでは、4ビットのTurboQuantは未量子化の32ビットのキーと比べて注意力度の計算速度を8倍に向上させ、KVキャッシュのメモリ使用量も少なくとも6倍圧縮されました。

さらに重要なのは、このアルゴリズムは訓練や微調整を必要とせず、実行時のオーバーヘッドも非常に低いため、正式な推論環境や大規模なベクトル検索システムに直接展開可能です。公式によると、関連論文は2026年4月の「ICLR」会議で正式に発表される予定です。

ジェイムズの逆説:メモリ需要はむしろ増加する可能性?

しかし、「メモリの終わり」という見方に全ての人が賛同しているわけではありません。

一部のアナリストはジェイムズの逆説を引用しています。技術進歩により資源のコストが下がると、資源がより容易に入手できるため、逆に全体の需要が高まるというものです。支持者は、TurboQuantがAI推論の敷居を大きく下げるなら、AIモデルの普及が加速し、結果的により大きなメモリ需要を生むと考えています。

Lynx Equity Strategiesのアナリストはレポートで次のように述べています:「Googleが詳述した方法は、今後3〜5年でメモリやフラッシュメモリの需要をほとんど減らさないでしょう。供給が依然として非常に制限されているためです。」このため、同機関はマイクロンの目標株価700ドルを維持しています。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし