Annonce
Annonce
Annonce
Annonce
Chip
© Huawei
Entreprises |

Huawei dévoile sa stratégie pour les semi-conducteurs et le calcul massif

Huawei a dévoilé sa feuille de route complète dans les semi-conducteurs et le calcul haute performance, selon Reuters, marquant une nouvelle étape technologique dans sa stratégie d’indépendance vis-à-vis des acteurs américains et taïwanais.

L’entreprise chinoise veut s’imposer comme un rival crédible de Nvidia sur le marché des puces d’intelligence artificielle et des systèmes de calcul en cluster.

La série Ascend, le fer de lance IA

La gamme Ascend occupe une place centrale dans les ambitions de Huawei. L’actuel Ascend 910C sera suivi par trois nouvelles générations, 950, 960 et 970, échelonnées sur les trois prochaines années. La première, l’Ascend 950, sera disponible au premier trimestre 2026 et déclinée en deux versions : la 950PR, optimisée pour l’inférence et l’exécution de modèles de recommandation, et la 950DT, dédiée à l’entraînement et au décodage. Avec l’Ascend 960, Huawei promet une puissance de calcul et une capacité mémoire doublées, tandis que la future 970 vise à franchir un nouveau palier dans la performance.

Privée d’accès au fondeur taïwanais TSMC à cause des sanctions américaines, Huawei n’a pas révélé quel partenaire produira ces puces. Tout indique toutefois que la firme collabore étroitement avec SMIC, premier fondeur chinois, et développe ses propres solutions de conception et d’équipement en semi-conducteurs.

Mémoire haute performance maison

L’un des points technologiques majeurs est l’annonce d’une mémoire HBM (High Bandwidth Memory) conçue en interne, secteur jusqu’ici dominé par SK Hynix et Samsung. Baptisée HiBL 1.0, cette mémoire sera intégrée à l’Ascend 950PR, avec une capacité de 128 Go et un débit de 1,6 To/s.

La 950DT bénéficiera pour sa part d’une puce de nouvelle génération, HiZQ 2.0, offrant 144 Go de mémoire et 4 To/s de bande passante, se positionnant comme une alternative aux standards HBM3E et HBM4E. Huawei entend ainsi maîtriser une composante critique, jusqu’alors monopolisée par la Corée du Sud.

Supernodes et infrastructures de calcul massif

Huawei investit massivement dans les architectures de calcul en grappe. Son système actuel Atlas 900 A3 SuperPoD, composé de 384 puces Ascend 910C, a déjà été présenté comme une alternative aux solutions de Nvidia dans le cloud IA.

La prochaine étape sera l’Atlas 950 SuperPod, attendu fin 2026, intégrant 8 192 puces Ascend 950DT réparties dans 160 baies pour une installation couvrant 1 000 m². Selon Huawei, cette plateforme affichera 6,7 fois plus de puissance de calcul et 15 fois plus de capacité mémoire que le NVL144 de Nvidia prévu en 2026. Un projet encore plus ambitieux, l’Atlas 960 SuperPoD, pourrait à terme associer 15 488 puces Ascend 960 réparties sur 2 200 m².

Kunpeng, la brique pour le calcul généraliste

Au-delà de l’intelligence artificielle, Huawei entend développer une offre complémentaire avec la famille Kunpeng, destinée aux serveurs généralistes. Après le Kunpeng 920 dévoilé en 2019, Huawei planifie les Kunpeng 950 et 960 pour 2026 et 2028. Ces puces viendront alimenter des clusters dédiés au calcul classique, avec un système TaiShan 950 SuperPod en préparation.

Une stratégie de souveraineté technologique

En présentant cette feuille de route, Huawei montre sa volonté de bâtir un écosystème complet de semi-conducteurs et de systèmes de calcul distribués. De la mémoire HBM aux processeurs IA spécialisés en passant par les infrastructures de superordinateurs, le groupe veut verrouiller toute la chaîne technologique.

Face aux restrictions américaines et à l’impossibilité de s’appuyer sur TSMC, Huawei accélère son virage vers l’autonomie et la montée en gamme. Pour les analystes, ce plan ambitieux place la Chine dans une position de plus en plus crédible pour réduire sa dépendance aux acteurs occidentaux et concurrencer directement Nvidia sur le terrain de l’intelligence artificielle et des supercalculateurs.


Annonce
Annonce
Plus d’actualités
© 2025 Evertiq AB September 19 2025 2:01 pm V24.4.16-2