智通财经APPによると、米東時間の月曜日、NVIDIA(NVDA.US)はカリフォルニア州サンノゼで正式にGTCカンファレンスを開幕し、一気に複数の新しいチップとプラットフォームを発表しました。そこには次世代のNvidia Groq 3言語処理ユニット(LPU)や、Intel(INTC.US)、AMD(AMD.US)と競合するために設計されたVera中央処理装置(CPU)を搭載した大型サーバーキャビネットも含まれています。今回NVIDIAは、AIデータセンターのさまざまなシナリオに対応するために、合計で5種類の大型サーバーキャビネットをリリースしました。中でも最も注目されたのは、Nvidia Groq 3チップの発表です。昨年12月、NVIDIAは200億ドルの契約でGroqの技術ライセンスを買収し、その創設者のJonathan Ross、社長のSunny Madra、そしてコアチームを傘下に収めました。GroqプロセッサはAI推論、つまりAIモデルの実行に特化しています。ユーザーがChatGPT、Claude、またはGeminiに指示を入力し、応答を得る背後では、推論技術が働いています。NVIDIAの汎用GPUは訓練と推論の両方に使えるのに対し、Groq 3の登場は、AI市場のモデル訓練からモデル応用への転換に対応するための、専用の推論チップを正式に所有したことを意味します。NVIDIAの超大規模・高性能計算担当副社長のIan Buckは、GPUはより大きなメモリ容量をサポートしている一方で、Groq 3のLPUメモリはより高速なアクセス速度を持つと述べています。両者の性能の優位性を融合させることで、新たにGroq 3 LPXプラットフォームが誕生しました。このサーバーキャビネットには128個の独立したGroq 3 LPUが搭載されており、Vera Rubin NVL72ラックと連携させると、1メガワットあたりのスループットが35倍に向上し、10倍の収益ポテンシャルを生み出します。「万億パラメータのモデルや百万トークンのコンテキスト最適化に対応したLPXアーキテクチャは、Vera Rubinと完璧に補完し合い、消費電力、メモリ、計算能力の間で最大の効率を実現します。このワットあたりのスループットとトークン性能の突破は、超高端の万億パラメータ推論サービスを生み出し、すべてのAIサービス提供者に新たな成長の機会をもたらすでしょう」と、NVIDIAは公式声明で強調しています。LPXキャビネットの導入は、市場が新興の推論チップスタートアップの台頭により優位性を失う懸念に対して、強力に応えるものです。同時に、独立して展開されるVera CPUラックも注目に値します。これは256個の液冷Veraチップを搭載したクラスターシステムであり、Vera CPUを「Vera Rubinスーパーチップ」(1つのVera CPUと2つのRubin GPUを含む)から解体した初の例です。インテリジェントエージェントAIの台頭により、CPUの戦略的価値はますます高まっています。AIエージェントがウェブ閲覧や表計算情報の抽出などのタスクを実行する際、CPUの性能が直接効率を左右します。データマイニングやパーソナライズド推薦など、GPUにコンテキスト分析を提供する必要のあるシナリオでも、CPUは不可欠な役割を果たしています。「Veraは、インテリジェントエージェントAIのワークロードに最適化された究極のCPUです」とBuckは紹介しています。「私たちはCPUアーキテクチャを再定義しました。NVIDIAがAI実行のために特別に設計したOlympusコアを搭載し、極端な条件下でも高速な応答を実現し、すべての強化学習シナリオに完璧に適合します。」これはNVIDIAが初めてCPU分野に進出したわけではありません。先月、Meta(META.US)と締結した契約により、史上最大規模の次世代Grace CPUクラスターの展開を予定しています。また、今回のVeraの独立リリースは、NVIDIAが「GPU+CPU」の二輪駆動戦略を正式に確立し、IntelやAMDが支配するデータセンター市場に挑む姿勢を示しています。これら以外にも、NVIDIAは従来の方案を大きく超える性能向上を実現したBluefield-4 STXストレージキャビネットシステムや、Spectrum-6 SPXネットワークキャビネットも展示しました。AIプラットフォームの需要が引き続き拡大する中、NVIDIAの新しい製品ラインはデータセンター事業の収益をさらに押し上げると見られています。2026年度には、同社のデータセンター部門の収益は1935億ドルに達し、2025年度の1162億ドルから大きく伸びる見込みです。Amazon(AMZN.US)、Google(GOOGL.US)、Meta、Microsoft(MSFT.US)などの大手企業が今年投入予定の6500億ドルのAI関連投資の中で、NVIDIAは確かなシェアを獲得するでしょう。
Not Just GPU! Nvidia (NVDA.US) GTC 2026 Launches LPU, CPU New Products, Comprehensively Covering Every Aspect of AI Data Center
智通财经APPによると、米東時間の月曜日、NVIDIA(NVDA.US)はカリフォルニア州サンノゼで正式にGTCカンファレンスを開幕し、一気に複数の新しいチップとプラットフォームを発表しました。そこには次世代のNvidia Groq 3言語処理ユニット(LPU)や、Intel(INTC.US)、AMD(AMD.US)と競合するために設計されたVera中央処理装置(CPU)を搭載した大型サーバーキャビネットも含まれています。
今回NVIDIAは、AIデータセンターのさまざまなシナリオに対応するために、合計で5種類の大型サーバーキャビネットをリリースしました。
中でも最も注目されたのは、Nvidia Groq 3チップの発表です。昨年12月、NVIDIAは200億ドルの契約でGroqの技術ライセンスを買収し、その創設者のJonathan Ross、社長のSunny Madra、そしてコアチームを傘下に収めました。
GroqプロセッサはAI推論、つまりAIモデルの実行に特化しています。ユーザーがChatGPT、Claude、またはGeminiに指示を入力し、応答を得る背後では、推論技術が働いています。
NVIDIAの汎用GPUは訓練と推論の両方に使えるのに対し、Groq 3の登場は、AI市場のモデル訓練からモデル応用への転換に対応するための、専用の推論チップを正式に所有したことを意味します。
NVIDIAの超大規模・高性能計算担当副社長のIan Buckは、GPUはより大きなメモリ容量をサポートしている一方で、Groq 3のLPUメモリはより高速なアクセス速度を持つと述べています。両者の性能の優位性を融合させることで、新たにGroq 3 LPXプラットフォームが誕生しました。このサーバーキャビネットには128個の独立したGroq 3 LPUが搭載されており、Vera Rubin NVL72ラックと連携させると、1メガワットあたりのスループットが35倍に向上し、10倍の収益ポテンシャルを生み出します。
「万億パラメータのモデルや百万トークンのコンテキスト最適化に対応したLPXアーキテクチャは、Vera Rubinと完璧に補完し合い、消費電力、メモリ、計算能力の間で最大の効率を実現します。このワットあたりのスループットとトークン性能の突破は、超高端の万億パラメータ推論サービスを生み出し、すべてのAIサービス提供者に新たな成長の機会をもたらすでしょう」と、NVIDIAは公式声明で強調しています。
LPXキャビネットの導入は、市場が新興の推論チップスタートアップの台頭により優位性を失う懸念に対して、強力に応えるものです。同時に、独立して展開されるVera CPUラックも注目に値します。これは256個の液冷Veraチップを搭載したクラスターシステムであり、Vera CPUを「Vera Rubinスーパーチップ」(1つのVera CPUと2つのRubin GPUを含む)から解体した初の例です。
インテリジェントエージェントAIの台頭により、CPUの戦略的価値はますます高まっています。AIエージェントがウェブ閲覧や表計算情報の抽出などのタスクを実行する際、CPUの性能が直接効率を左右します。データマイニングやパーソナライズド推薦など、GPUにコンテキスト分析を提供する必要のあるシナリオでも、CPUは不可欠な役割を果たしています。
「Veraは、インテリジェントエージェントAIのワークロードに最適化された究極のCPUです」とBuckは紹介しています。「私たちはCPUアーキテクチャを再定義しました。NVIDIAがAI実行のために特別に設計したOlympusコアを搭載し、極端な条件下でも高速な応答を実現し、すべての強化学習シナリオに完璧に適合します。」
これはNVIDIAが初めてCPU分野に進出したわけではありません。先月、Meta(META.US)と締結した契約により、史上最大規模の次世代Grace CPUクラスターの展開を予定しています。また、今回のVeraの独立リリースは、NVIDIAが「GPU+CPU」の二輪駆動戦略を正式に確立し、IntelやAMDが支配するデータセンター市場に挑む姿勢を示しています。
これら以外にも、NVIDIAは従来の方案を大きく超える性能向上を実現したBluefield-4 STXストレージキャビネットシステムや、Spectrum-6 SPXネットワークキャビネットも展示しました。
AIプラットフォームの需要が引き続き拡大する中、NVIDIAの新しい製品ラインはデータセンター事業の収益をさらに押し上げると見られています。2026年度には、同社のデータセンター部門の収益は1935億ドルに達し、2025年度の1162億ドルから大きく伸びる見込みです。Amazon(AMZN.US)、Google(GOOGL.US)、Meta、Microsoft(MSFT.US)などの大手企業が今年投入予定の6500億ドルのAI関連投資の中で、NVIDIAは確かなシェアを獲得するでしょう。