Jensen Huang inaugure une nouvelle ère du supercalcul, Vera Rubin devient un acteur du changement dans le domaine de l'IA

Jensen Huang remonte une fois de plus sur la scène du CES, ce dirigeant de NVIDIA ayant présenté une grande annonce technologique pour montrer au secteur la direction future du calcul IA. Contrairement aux années précédentes, le point d’orgue cette année n’est pas une carte graphique grand public traditionnelle, mais une plateforme de supercalcul entreprise pesant 2,5 tonnes, intégrant six puces personnalisées — Vera Rubin. Ce nom, tiré de l’astronome Vera Rubin, symbolise la volonté de NVIDIA d’explorer de nouvelles frontières dans l’univers de l’IA.

Vera Rubin : une refonte de la logique de conception des puces, une innovation systémique pour des performances en hausse

Dans le mode de R&D traditionnel, NVIDIA suit généralement une stratégie prudente consistant à n’innovant qu’une ou deux puces par génération. Mais Vera Rubin brise cette règle, en concevant et produisant simultanément six nouvelles puces, une démarche sans précédent dans l’industrie. Jensen Huang la qualifie d’« innovation en collaboration extrême » — une innovation synchronisée à tous les niveaux de l’architecture des puces et de la plateforme globale.

Ces six puces ont chacune leur rôle : le CPU Vera utilise l’architecture personnalisée Olympus à 88 cœurs de NVIDIA, avec 1,5 To de mémoire système (triplement par rapport à la génération Grace), ce qui suffit à supporter des applications IA plus complexes ; le GPU Rubin est la force principale en performance, atteignant 50 PFLOPS d’inférence, soit cinq fois la puissance de Blackwell, tout en n’augmentant que de 1,6 fois le nombre de transistors, illustrant une efficacité de conception remarquable.

En plus de ces deux « cerveaux », Vera Rubin intègre une carte réseau ConnectX-9, une unité de traitement de données BlueField-4, un commutateur NVLink-6 et un chipset Ethernet optique Spectrum-6. Chaque composant a été soigneusement conçu pour que l’ensemble fonctionne comme un organisme cohérent.

En termes de performances concrètes, le système NVL72 basé sur l’architecture Vera Rubin atteint 3,6 EFLOPS en inférence, une hausse de 5 fois par rapport à Blackwell ; en entraînement, il atteint 2,5 EFLOPS, soit 3,5 fois plus. Ce qui est encore plus impressionnant, c’est que cette augmentation de performance ne nécessite qu’une augmentation de 1,7 fois du nombre de transistors, témoignant de progrès majeurs dans la technologie de fabrication et l’architecture.

Les avancées en conception physique sont tout aussi remarquables. Alors qu’auparavant, un nœud de supercalculateur nécessitait 43 câbles, 2 heures d’assemblage et était sujet à des erreurs, le nœud Vera Rubin ne requiert aucune câble, seulement 6 tubes de refroidissement liquide, et son assemblage est réduit à 5 minutes. Le réseau principal NVLink derrière le nœud, composé d’environ 3200 km de cuivre et de 5000 câbles, transmet les données à 400 Gbps, une complexité technique que Jensen Huang a plaisanté en disant qu’il faudrait un « CEO très costaud pour le déplacer ».

Révolution de la mémoire et accélération réseau : des clés pour résoudre les goulots d’étranglement de l’IA

Un problème majeur des applications IA est le manque de mémoire contextuelle. Lorsqu’un modèle IA dialogue, il crée un « cache KV » — la mémoire de travail de l’IA. Avec l’augmentation du nombre de tours de dialogue et de la taille des modèles, la HBM (mémoire à haute bande passante) sature rapidement.

La solution de Vera Rubin consiste à déployer une unité BlueField-4 pour gérer indépendamment le cache KV. Chaque nœud est équipé de 4 BlueField-4, avec 150 To de mémoire contextuelle, permettant à chaque GPU d’ajouter 16 To de mémoire — une croissance révolutionnaire par rapport à l’1 To intégré d’un GPU classique. Mieux encore, cette extension n’affecte pas la vitesse d’accès, la bande passante restant à 200 Gbps.

Mais la mémoire seule ne suffit pas. Lorsqu’il faut faire coopérer des dizaines de serveurs et des dizaines de milliers de GPU, l’infrastructure réseau devient un nouveau goulot d’étranglement. Spectrum-X, le premier réseau Ethernet dédié à l’IA générative, a été lancé par NVIDIA. Il utilise la technologie TSMC COOP, intègre la photoniquie silicium, et supporte 512 canaux à 200 Gbps.

D’un point de vue économique, pour un centre de données de 50 milliards de dollars, Spectrum-X peut augmenter le débit de 25 %, ce qui représente une économie de 500 millions de dollars — Jensen Huang qualifie ce réseau de « pratiquement offert ».

Par ailleurs, Vera Rubin intègre aussi des mesures de sécurité avancées. Toutes les données en transit, en stockage ou en calcul sont cryptées, y compris via PCIe, NVLink, la communication CPU-GPU et autres bus. Les entreprises peuvent déployer leurs modèles en externe en toute sécurité, sans craindre de fuite de données.

La vague open source et la démocratisation de l’IA : une nouvelle génération de modèles qui redéfinit l’écosystème industriel

Un point fort de la conférence est l’enthousiasme de Jensen Huang pour la communauté open source IA. Il a évoqué la percée de DeepSeek V1 l’an dernier, qu’il qualifie de « premier modèle de raisonnement open source » ayant secoué le secteur, déclenchant une vague d’innovation. Sur ses slides, Kimi et DeepSeek V3.2, en Chine, occupent respectivement la première et la deuxième place dans le classement mondial des modèles open source.

Huang admet que, pour l’instant, ces modèles open source sont encore à environ six mois derrière les solutions de pointe, mais de nouvelles percées surviennent tous les six mois. Cette cadence d’innovation pousse startups, géants technologiques et instituts de recherche à ne pas relâcher leurs efforts. NVIDIA elle-même sait qu’elle ne peut pas manquer cette compétition.

NVIDIA ne se limite plus à fabriquer des puces. Elle construit un supercalcul DGX Cloud valant des milliards de dollars, développe des modèles de synthèse protéique comme La Proteina et OpenFold 3, et étend un écosystème open source dans la santé, la physique IA, les agents intelligents, la robotique et la conduite autonome.

La famille de modèles Nemotron, couvrant la voix, le multimodal, la génération renforcée par la recherche et la sécurité, est également un point fort. Ces modèles excellent dans plusieurs classements et sont déjà adoptés par de nombreuses entreprises.

Alpamayo, l’incarnation physique de l’IA, et l’ère de la conduite autonome en inférence

Si les grands modèles de langage ont résolu le problème du « monde numérique », la prochaine ambition de Huang est de conquérir le « monde physique ». Il propose une architecture à « trois ordinateurs clés » pour faire avancer l’IA physique : un ordinateur d’entraînement (basé sur des GPU classiques), un ordinateur d’inférence (pour déployer dans des robots ou véhicules autonomes en périphérie), et un ordinateur de simulation (pour l’entraînement virtuel via Omniverse et Cosmos).

Ce triptyque a donné naissance à Alpamayo, le premier système de conduite autonome doté de capacités cognitives, lancé par NVIDIA. Contrairement aux systèmes traditionnels basés sur des règles, Alpamayo est une solution end-to-end basée sur l’apprentissage profond, qui résout le « problème de la longue traîne » de la conduite autonome.

Lorsqu’un véhicule rencontre des situations routières inédites, Alpamayo ne se contente pas d’exécuter des instructions préprogrammées, mais peut raisonner et décider comme un humain. Mieux encore, il explique « ce qu’il va faire ensuite et pourquoi ». Lors d’une démonstration, cette voiture autonome a montré une capacité impressionnante à décomposer des scénarios complexes en connaissances fondamentales pour y répondre.

La Mercedes CLA est le premier véhicule commercial à intégrer cette technologie Alpamayo. Jensen Huang a annoncé qu’elle sera commercialisée au premier trimestre aux États-Unis, puis en Europe et en Asie. Elle a obtenu la note maximale de sécurité NCAP, grâce à une architecture de sécurité à « double couche » conçue par NVIDIA : lorsque le modèle AI n’est pas confiant dans la situation, il bascule immédiatement vers un mode sécurité traditionnel plus fiable, garantissant une sécurité totale.

Écosystème robotique et avenir industriel : du virtuel à la fabrication réelle

Un autre point fort est la stratégie robotique. NVIDIA a présenté plusieurs partenaires avec des robots, dont des humanoïdes et le quadrupède de Boston Dynamics. Huang insiste sur le fait que tous ces robots seront équipés de modules Jetson, entraînés dans l’environnement Isaac Simulator basé sur Omniverse.

Plus largement, NVIDIA veut intégrer cette écologie technologique dans les logiciels industriels de sociétés comme Synopsys, Cadence ou Siemens. Selon Huang, le plus grand robot est en réalité la fabrique elle-même.

De bas en haut, la vision de NVIDIA est que la conception des puces, la conception des systèmes et la simulation des usines seront toutes accélérées par l’IA physique. La scène a aussi vu une apparition surprise de robots Disney, que Huang a humoristiquement dit « conçus, fabriqués et même testés dans l’ordinateur avant de subir la gravité réelle ».

Si l’on ne regarde que la seconde moitié de la conférence, on pourrait croire qu’il s’agit d’un lancement de produits d’une société de robots ou de modèles.

De fournisseur de puces à catalyseur IA : la nouvelle stratégie de Jensen Huang

Dans un contexte de controverses sur la bulle IA, cette conférence de Huang révèle une stratégie plus profonde. Outre le ralentissement de la loi de Moore, qui limite l’optimisation des performances traditionnelles, il veut aussi prouver la valeur réelle de l’IA avec Vera Rubin — en passant d’une simple montée en puissance du calcul à une application concrète.

Ce changement de cap, passant de vendeur de puces à facilitateur IA, ne se limite pas au hardware. NVIDIA investit aussi massivement dans l’application et l’écosystème — que ce soit par le soutien aux modèles open source, la construction du DGX Cloud, ou le développement d’Alpamayo, de modèles de physique IA et autres applications. Tout cela raconte comment l’IA peut réellement transformer le monde.

Un dernier détail intéressant : en raison du temps limité de la conférence CES, Huang a préparé de nombreuses diapositives non présentées. Il a même réalisé une vidéo humoristique compilant ces contenus non dévoilés, illustrant une fois de plus le style de ce leader du secteur — sérieux dans l’innovation, mais avec une vision détendue de l’industrie.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler