Thread Reader
Tweet

Et si pour concurrencer Nvidia, il fallait simplement faire plus gros, quitte à sacrifier coût et efficacité énergétique ? C’est le pari de Huawei avec son Cloud Matrix 384, basé sur la puce Ascend 910C. Voyons ensemble si Nvidia doit s’inquiéter. Thread 🧵

Huawei n’est pas le premier nom qui vient à l’esprit quand on pense à des puces IA. Et pourtant, avec le durcissement des restrictions américaines sur les exportations technologiques, l’entreprise est devenue l’un des rares acteurs capables de proposer une alternative — partielle — aux solutions de Nvidia.
Lancée en août 2019, la première puce Ascend 910 a depuis été suivie par deux itérations: la 910B puis la 910C, dévoilée en octobre 2024. Cette dernière affiche entre 60 et 70 % des performances de la Nvidia H100… sortie, elle, en mars 2022. Autrement dit, Huawei a plus de deux ans de retard en matière de puissance de calcul brute.
Mais le plus intéressant, c’est que malgré les discours officiels sur l’autonomie technologique, les puces Huawei sont encore loin d’être 100% chinoises.  Si SMIC (plus grand fondeur chinois) est capable de graver en 7 nm, la majorité des wafers (disque de silicium sur lequel on vient graver les puces) proviennent toujours de TSMC, via un jeu complexe de filiales servant à contourner les sanctions — une stratégie qui a d’ailleurs valu à TSMC une amende d’1B$.
Du côté de la mémoire, même constat: la Chine n’est pas encore autosuffisante sur la production d’HBM. Pour s’en procurer, Huawei importe des modules préassemblés (packages) dont la puissance reste sous les seuils réglementaires, puis les démonte pour en extraire la mémoire.  Cette HBM provient souvent de chez Samsung et transite via CoAsia Electronics — dont les comptes financiers montrent bien l’impact des restrictions.
En parallèle, les fonderies chinoises comme SMIC et CXMT investissent massivement. Elles ont reçu d’importants volumes d’équipements — y compris des machines ASML — et continuent de recevoir les produits chimiques nécessaires à la fabrication de puces avancées. À court et moyen terme, cela pourrait profondément changer le paysage.
À l’ère de l’IA générative, ce n’est plus tant la puissance d’une puce qui compte, mais la capacité à orchestrer un système entier à l’échelle. C’est là où Nvidia écrase la concurrence — et où Huawei tente de faire la différence.
Le Cloud Matrix 384 est un mastodonte: 384 puces Ascend 910C interconnectées dans un seul système, contre 144 puces dans le GB200 NVL72 de Nvidia. En termes de puissance brute, Huawei revendique 70 % de performance en plus. Mais cela a un prix: plus d’optiques, plus de racks, et surtout… une consommation énergétique colossale.
Avec près de 600 kW de consommation pour le Cloud Matrix 384, contre 145 kW pour le NVL72, l’efficacité énergétique est clairement du côté de Nvidia. Huawei offre 2,5 fois moins de performance par watt, un écart énorme à l’échelle d’un data center.
Le système de Huawei repose sur 16 racks, dont 12 racks de calcul, chacun hébergeant 32 puces, et 4 racks de switchs équipés de 6912 transceivers 800G. Cette architecture “all-optical” permet des connexions ultra-rapides entre chaque puce (all-to-all), ce qui compense partiellement le déficit de puissance de l’Ascend 910C… au prix d’une inefficacité énergétique dramatique. Le tout est estimé à environ 8,2 millions de dollars, soit 2,7 fois le prix d’un NVL72.
À court terme, Huawei ne menace ni Nvidia, ni la domination technologique des États-Unis dans le domaine de l’intelligence artificielle. Leur système est surdimensionné, énergivore et dépend encore largement de technologies étrangères.
Comme j’ai déjà pu le dire, aujourd’hui, ça ressemble plus à mettre 20 moteurs de twingo sur un kart en bois pour essayer de dépasser une formule 1. En ligne droite, ça peut fonctionner, mais sur un grand prix, c’est pas pareil…
Pour autant, il ne faut pas sous-estimer l’avantage géographique et stratégique de la Chine. Là où l’énergie est un vrai sujet en Europe et aux États-Unis, elle reste abondante et bon marché en Chine.
Cependant, d’autre problèmes rentrent en compte. La gestion de la chaleur (plus d’énergie consommée = plus de chaleur rejetée) ou même le scaling au delà de 100k GPUs (je vous renvoie vers mon article sur la GTC 2025 pour comprendre pourquoi) restent des problématiques importantes que Huawei devra surmonter.
En parallèle, la base installée de développeurs chinois sera mécaniquement poussée à s’adapter à l’écosystème Huawei. Cela pourrait créer une masse critique de logiciels et d’outils optimisés pour leurs puces, et donc renforcer leur compétitivité à long terme.
Rien que pour ce point, Huawei est une menace plus crédible qu’AMD, et encore plus dans les marchés où les sanctions américaines n’ont que peu d’effet: pays non alignés, zones sous embargo, ou simplement désireux d’échapper à la dépendance aux technologies américaines.
En résumé: rien d’alarmant pour Nvidia aujourd’hui, mais un signal clair. Huawei progresse vite, la Chine investit massivement, et les effets des sanctions pourraient se retourner contre ceux qui les imposent.
C’est la fin de ce thread 🧵. S’il t’a plu, n’hésite pas à 🔄 Partager le premier post ❤️ Liker le premier post 💬 Laisser tes idées en commentaire ✅ Et t’abonner Merci d’avoir lu jusqu’au bout
Encore une fois, merci à @SemiAnalysis, @Dylan Patel et @Tom's Hardware pour rendre l’information un minimum accessible car c’était un calvaire de trouver d’autres sources
Julien | Tech & Invests

Julien | Tech & Invests

@JulienTechInvst
NDE chez AWS. Investisseur actif. Je partage mes analyses sur la base des données que j’ai en ma possession. ⚠️ Pas de conseil en investissement - DYOR !
Follow on 𝕏
Missing some tweets in this thread? Or failed to load images or videos? You can try to .