Je suivais l’histoire de ZTE il y a huit ans, lorsque la catastrophe s’est produite — une interdiction américaine totale l’a arrêtée net. Une entreprise de 80 000 employés et des revenus dépassant le billion de yuans, disparue de la carte en une journée. La scène était douloureuse : sans puces Qualcomm, sans licence Android. L’histoire s’est terminée par une amende de 1,4 milliard de dollars et des pertes annuelles atteignant 7 milliards de yuans.



Mais ce qui s’est passé en février 2026 est complètement différent. DeepSeek a annoncé un modèle multimédia V4 qui s’appuiera entièrement sur des puces locales, sans NVIDIA. La première réaction du marché était sceptique, mais derrière cette annonce se cache une question plus profonde : comment la Chine a-t-elle construit une véritable autonomie en puissance de calcul ?

En réalité, ce qui étouffe les entreprises chinoises d’intelligence artificielle n’est pas seulement les puces. C’est CUDA — la plateforme NVIDIA qui a monopolisé tout l’écosystème depuis 2006. Plus de 4,5 millions de développeurs dans le monde y sont liés, et chaque ligne de code qu’ils écrivent creuse le fossé. Lorsque l’Amérique a imposé une interdiction sur l’A100, puis le H100, puis le H20, les entreprises chinoises ont compris que le vrai problème n’était pas la puce, mais l’environnement logiciel dans son ensemble.

Mais il existe une solution. De fin 2024 à 2025, les entreprises chinoises ont adopté une stratégie totalement différente : des modèles d’experts hybrides. L’idée est simple — au lieu d’activer le modèle dans son intégralité, on le divise en petits experts et on n’active que ceux qui sont pertinents pour la tâche. DeepSeek V3 en est un exemple clair : 671 milliards d’opérations, mais seulement 37 milliards sont activées, soit 5,5 %. Le coût de formation ? 5,576 millions de dollars contre 78 millions pour GPT-4. La différence est énorme.

Cette évolution des algorithmes s’est immédiatement traduite par une baisse des prix. L’interface de DeepSeek coûte 0,028 dollar par million de tokens contre 5 dollars pour GPT-4o. Des licences 25 à 75 fois moins chères. En février 2026, l’utilisation des modèles chinois sur OpenRouter a augmenté de 127 % en seulement trois semaines, dépassant pour la première fois les États-Unis.

Mais réduire le coût de l’inférence ne résout pas le problème de la formation — ce trou noir de la puissance de calcul. D’où viennent les "pelles" entraînées ?

La réponse se trouve dans une petite ville du sud-est de la Chine. En 2025, une ligne de production informatique complète a été construite en seulement 180 jours. Un processeur Loongson 3C6000 et une carte T100 de Taichu Yuanqi — tous deux entièrement locaux. La production : un serveur toutes les cinq minutes. Le plus important ? Ces puces ont commencé à entraîner de vrais grands modèles. Zhipu AI a entraîné entièrement le GLM-Image sur des puces chinoises. La société de télécommunications a entraîné son modèle massif sur un bassin informatique local comprenant des dizaines de milliers d’unités de traitement.

Ce n’est pas une simple démonstration — c’est une formation. Un changement de paradigme complet.

Derrière cela se trouve Huawei Ascend. Fin 2025, le nombre de développeurs dépassait 4 millions, avec plus de 3 000 partenaires. 43 modèles principaux ont été entraînés sur Ascend. En mars 2026, Huawei a lancé SuperPoD sur les marchés étrangers. La puissance de traitement de l’Ascend 910B a atteint le niveau de l’A100 de NVIDIA. L’écart est passé d’inutilisable à utilisable.

Pendant ce temps, les États-Unis font face à une crise électrique réelle — la Virginie, la Géorgie et l’Illinois ont suspendu de nouveaux projets de centres de données. La consommation d’énergie pourrait atteindre 12 % de l’électricité américaine d’ici 2030, et le réseau est déjà sous pression.

La Chine, de son côté, produit 2,5 fois plus d’électricité que les États-Unis, et le prix de l’électricité industrielle en Occident n’est que de 0,03 dollar — un quart du prix américain. Cela signifie une capacité énergétique énorme pouvant être orientée vers le calcul.

Aujourd’hui, l’intelligence artificielle chinoise sort discrètement dans le monde — mais ce n’est pas le produit ni l’usine. Ce qui sort, c’est le token (Token). La petite unité d’information que traitent les modèles est devenue une nouvelle marchandise numérique. Produite dans des usines de calcul, elle est transportée par des câbles sous-marins à travers le monde.

La répartition des utilisateurs de DeepSeek en dit long : 30,7 % en Chine, 13,6 % en Inde, 6,9 % en Indonésie, 4,3 % aux États-Unis. Elle supporte 37 langues. En 2025, 58 % des startups en intelligence artificielle ont intégré DeepSeek dans leur infrastructure technique. En Chine, elles détiennent 89 % du marché.

Cela me rappelle une autre guerre d’il y a quarante ans. En 1986, le Japon a signé un accord sur les semi-conducteurs sous pression américaine. À son apogée, il contrôlait 51 % du marché mondial en 1988. Mais après l’accord, tout a changé. Aujourd’hui, sa part est tombée à seulement 7 %. Les géants ont disparu un à un.

La tragédie japonaise est qu’ils ont accepté d’être les meilleurs produits dans un système de division mondiale, mais n’ont pas construit un système indépendant. Quand la vague s’est retirée, il ne leur restait que la production.

La Chine se trouve aujourd’hui à un carrefour similaire, mais différent. Nous faisons face à une pression énorme — trois vagues croissantes d’interdictions de puces. Mais cette fois, nous avons choisi une voie plus difficile : des améliorations maximales au niveau des algorithmes, une montée en puissance locale des puces pour l’inférence et la formation, le cumul de millions de développeurs dans le système Ascend, puis une diffusion mondiale des Tokens sur les marchés émergents.

Chaque étape construit un système industriel indépendant que le Japon n’a jamais possédé.

Le 27 février 2026, trois entreprises ont publié leurs résultats de puces locales le même jour. La moitié est du feu, l’autre de l’eau. Le feu, ce sont des revenus en croissance de 453 %, 243 % et 121 %. L’eau, ce sont des pertes atteignant un milliard et 800 millions. Chaque perte est une somme réelle dans la quête d’un système écologique indépendant — recherche et développement, support logiciel, ingénieurs sur le terrain résolvant problème après problème.

Ce ne sont pas des pertes dues à une mauvaise gestion. C’est une taxe de guerre à payer.

Il y a huit ans, nous demandions : pouvons-nous rester ? Aujourd’hui, la question est : combien devons-nous payer pour rester ? Le prix est le même que celui du progrès.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler