Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
NVIDIA commence la vente de la méthode pour fabriquer des pelles
Auteur : Ada, TechFlow Deep Tide
San Francisco, centre de conférences de San Jose, GTC en direct.
Bill Dally, scientifique en chef chez Nvidia, est assis sur scène, face à Jeff Dean de Google. En discutant, Dally lance un chiffre : « Auparavant, transplanter une bibliothèque de cellules standard contenant environ 2500 à 3000 unités prenait une équipe de 8 ingénieurs environ 10 mois. »
Il fait une pause.
« Maintenant, il suffit d’un seul GPU, pour le faire en une nuit. »
Personne ne s’écrie dans la salle, car ceux qui ont compris savent ce que cela signifie. Le travail de 8 ingénieurs pendant 10 mois, avalé en une seule nuit par un GPU produit par leur propre entreprise. Et Dally ajoute que : le résultat obtenu, en termes de surface, consommation d’énergie et latence, égal ou dépasse même la conception humaine.
Le lendemain, la presse interprète cela comme « Nvidia utilise l’IA pour concevoir des GPU ».
Mais la vérité derrière cette histoire est bien plus intéressante que le titre de l’article.
Que se passe-t-il en interne chez Nvidia ?
Ce n’est pas un coffre-fort noir, mais plusieurs chaînes d’outils affinées depuis plusieurs années.
NB-Cell est un programme basé sur l’apprentissage par renforcement, spécialisé dans la migration de bibliothèques de cellules standard, activité parmi les plus ardues. Prefix RL vise à résoudre un problème de longue date dans la phase de placement en chaîne de prévision. Dally indique que la disposition générée par ce système « est inimaginable pour l’humain », et qu’elle améliore d’environ 20 % à 30 % les indicateurs clés par rapport à la conception humaine.
Il y a aussi deux grands modèles internes, Chip Nemo et Bug Nemo. Nvidia fournit à ces deux grands modèles le code RTL, la documentation architecturale et les spécifications de chaque GPU de l’histoire. Selon Dally, cela revient à distiller vingt ans de mémoire musculaire de Nvidia, de G80 à Blackwell, en un seul modèle interne, permettant à un nouveau venu d’accéder directement à vingt ans d’expertise.
Alors, l’IA peut-elle concevoir des GPU ?
Au contraire. Dally dit : « J’aimerais pouvoir un jour simplement dire ‘Conçois-moi un nouveau GPU’, mais nous en sommes encore très loin. »
Nvidia n’a pas utilisé l’IA pour concevoir un GPU. Mais ce qu’elle fait d’autre va changer la donne pour toute l’industrie.
20 milliards de dollars pour s’implanter dans l’EDA
Le 1er décembre 2025, Nvidia investit 2 milliards de dollars dans Synopsys, l’un des trois géants de l’EDA. Les deux entreprises signent un accord de co-développement, intégrant la pile de calcul accéléré de Nvidia dans tout le flux de travail EDA de Synopsys, avec une intégration profonde de Blackwell et de la prochaine génération de GPU Rubin avec Synopsys.ai.
Il faut expliquer la position de Synopsys. Chaque puce avancée fabriquée dans le monde — que ce soit la série M d’Apple, la série MI d’AMD ou le TPU de Google — est presque toujours conçue avec les outils de Synopsys ou Cadence. Ces deux entreprises, avec Siemens EDA, monopolisent les outils fondamentaux de conception de puces. On peut se passer des puces Qualcomm ou des lignes de TSMC, mais on ne peut pas se passer de leurs logiciels.
Trois mois après l’investissement dans Synopsys, Nvidia a aussi intégré Cadence, Siemens et Dassault, annonçant qu’ils développent tous des outils de conception de puces alimentés par l’IA, basés sur les GPU Nvidia.
Les benchmarks de Nvidia sont impressionnants : Synopsys PrimeSim est près de 30 fois plus rapide sur Blackwell, Proteus 20 fois, Sentaurus sur B200 accélère 12 fois par rapport au CPU. MediaTek accélère de 6 fois la simulation Cadence Spectre avec H100. Astera Labs accélère la vérification de puces de 3,5 fois avec Synopsys + Nvidia.
Un détail à souligner : la plateforme Millennium M2000 de Cadence, « spécialement conçue pour le marché EDA, exclusivement basée sur NVIDIA Blackwell ».
Le mot « exclusif » est à méditer. Autrement dit, les outils EDA, qui auparavant tournaient sur des CPU (Intel, AMD), devront désormais utiliser des cartes Nvidia pour bénéficier des performances maximales.
La véritable forme du volant
La vision la plus répandue du volant Nvidia est la suivante : vendre des GPU aux entreprises d’IA, entraîner de grands modèles, prouver que ces modèles rendent les GPU irremplaçables, et ainsi vendre encore plus de GPU.
Ce volant est déjà impressionnant. Mais il y a une couche en dessous.
Nvidia conçoit ses prochains GPU avec ses propres outils, ce qui augmente considérablement l’écart de productivité entre générations, tout en liant toute la chaîne d’outils EDA de l’industrie à son matériel. Les concurrents veulent suivre, mais même leurs outils doivent être loués dans l’écosystème Nvidia.
La mauvaise nouvelle pour AMD, qui a vu son cours chuter après ses résultats, c’est cette couche d’anxiété. Même si Nvidia et Synopsys déclarent que « l’investissement ne comporte aucune obligation d’acheter du matériel Nvidia », le marché sait que les premières versions de fonctionnalités EDA accélérée sortent sur le hardware Nvidia, et que AMD ou Intel ne peuvent que s’appuyer sur une voie « optimisée pour la plateforme du plus grand rival ».
Imaginez qu’un ingénieur AMD veuille concevoir un GPU rival de Blackwell. Il ouvre l’outil de Synopsys, qui tourne le plus vite sur un GPU Nvidia. Il a deux options : accepter un cycle de conception deux fois plus long ou acheter une multitude de cartes Nvidia pour battre Nvidia.
Les outils sont toujours vendus, mais la manière de les vendre a changé.
La situation des GPU nationaux
Ici, il faut donner quelques chiffres pour éclairer.
En 2025, alors que Nvidia réalise un bénéfice net supérieur à 70 milliards de dollars, les « Quatre petits » du GPU national — Moore Threads, Muoxi, Biren, Suiyuan — font la queue pour leur IPO.
Le prospectus de Moore Threads indique qu’entre 2022 et 2024, la société a perdu 5 milliards de yuans, et au premier semestre 2025, encore 271 millions. Au 30 juin, la perte cumulée s’élève à 1,478 milliard. La direction prévoit une rentabilité consolidée pas avant 2027. Muoxi est un peu mieux, avec une perte cumulée de plus de 3 milliards. La plus mal en point est Biren, avec une perte de plus de 6,3 milliards en trois ans et demi, et un chiffre d’affaires de seulement 58,9 millions au premier semestre 2025, bien loin des 702 millions de Moore Threads.
En termes d’investissement en R&D, la proportion de dépenses en 2022 était de 2422,51 % du chiffre d’affaires, et en 2024, encore 309,88 %. Ces dépenses dépassent trois fois le revenu, ce qui n’est pas une gestion d’entreprise, mais une infusion continue de capitaux via le marché primaire et la récente ouverture du marché STAR.
Au niveau des outils, c’est encore pire. La société BGI Jiutian, dans son IPO de 2022, indique que ses outils ne supportent que partiellement la fabrication en 5 nm. Conleg Electronic couvre les processus en 7 nm, 5 nm et 3 nm, mais ne propose que des outils ponctuels, pas une solution complète.
Liu Weiping, fondateur de BGI Jiutian, confie : « La conception EDA nationale pour les processus avancés est encore nettement insuffisante, notamment pour le 7 nm, 5 nm et 3 nm. Actuellement, l’EDA nationale peut atteindre le niveau du 14 nm. Bien que maîtrisant la technologie du 7 nm, l’intégration profonde avec les applications réelles nécessite une collaboration de toute la chaîne industrielle. »
Autrement dit, pour les processus avancés, l’EDA national est encore inutilisable. Les sociétés de GPU nationales conçoivent toujours leurs puces avec Synopsys ou Cadence. En 2025, Trump a annoncé une restriction à l’exportation de tous les logiciels clés, et bien que cela ne se soit pas concrétisé, les outils EDA pour le 7 nm et en dessous restent strictement contrôlés. La clé d’accès à ces licences est entre les mains d’autres.
Les réactions du marché financier sont tout aussi déconcertantes. Lors de l’IPO de Muoxi, le prix de l’action a bondi de 692,95 %, pour atteindre 829,9 yuans en une seule journée. Après l’IPO de Moore Threads, le cours a atteint le troisième rang en A, derrière Guizhou Moutai et Cambrian, avec une capitalisation estimée à environ 3595 milliards de yuans.
Ce qui se cache derrière ces chiffres, c’est une réalité : des entreprises qui continuent à perdre de l’argent, dépendantes de logiciels étrangers sous contrôle, sont valorisées en bourse comme les successeurs nationaux de Nvidia.
Et ces mêmes outils de conception de puces, qui alimentent leur développement, deviennent une partie intégrante de l’écosystème Nvidia. La liaison de 2 milliards de dollars avec Synopsys, et le label « exclusivement basé sur NVIDIA Blackwell » pour le Millennium M2000 de Cadence, transforment la course à la technologie en un paradoxe.
Une chaîne complète de conception à fabrication
Revenons à la discussion lors du GTC.
Dally se montre très humble : « L’IA ne peut pas encore concevoir seule une puce », cela, Nvidia le répète depuis quatre ou cinq ans. Mais la façon d’en parler évolue. Il y a quatre ans, c’était « l’IA peut aider à la conception », il y a trois ans, « l’IA peut automatiser certains processus », cette année, « en une nuit, faire le travail de 8 personnes en 10 mois ». Chaque année, une étape supplémentaire, chaque année une phrase « la distance vers l’objectif ultime est encore grande ». En regardant en arrière trois ans, la précédente déclaration « encore loin » s’est réalisée, et la nouvelle « encore loin » se situe désormais à un niveau que tous les concurrents ne peuvent atteindre.
Ce que Nvidia a fait en douze mois, c’est essentiellement une chose : appliquer l’IA aux segments de la chaîne de valeur des puces où la barrière est la plus haute, puis vendre ces outils étape par étape à toute l’industrie.
Le front de la conception de puces est désormais contrôlé par des LLM internes comme Chip Nemo ; la migration de bibliothèques standard et l’optimisation de la disposition sont prises en charge par NB-Cell et Prefix RL ; toute la chaîne d’outils EDA, via les 2 milliards de dollars dans Synopsys et le « exclusif basé sur Blackwell » de Cadence, est liée à leurs GPU ; la lithographie, étape de fabrication, est prise en charge par cuLitho, déjà utilisée par TSMC.
De la conception à la fabrication, chaque étape a été refaite par Nvidia avec l’IA. Et chaque étape mène à un même point final : pour utiliser l’outil le plus rapide, il faut acheter des cartes Nvidia.
Pour tout concurrent qui veut concevoir une puce capable de battre Blackwell, le problème est déjà là : l’outil de conception le plus rapide tourne sur un GPU Nvidia ; la lithographie la plus rapide utilise une bibliothèque d’algorithmes fournie par Nvidia ; la puissance de calcul pour entraîner l’IA de conception, c’est encore Nvidia.
Celui que vous cherchez à battre, il vous loue tous les outils nécessaires pour le faire. Le loyer est annuel, le contrat augmente chaque année.