Inside a modern GPU : de l’architecture aux billions de calculs
Nous parlons souvent des performances des GPU modernes en termes abstraits — des billions d’opérations, une puissance de calcul en constante augmentation. Ce qui reste moins visible, c’est la structure qui rend cela possible.
C’est là qu’intervient une vidéo de Branch Education, qui prend comme point de référence la puce GA102 de la NVIDIA RTX 3090 pour montrer ce qui se passe à l’intérieur d’une carte graphique moderne.
Au cœur de la vidéo se trouve une question simple mais révélatrice : comment un seul dispositif peut-il effectuer des dizaines de billions de calculs par seconde ? Selon la vidéo, certains GPU haut de gamme sont capables de dépasser les 36 billions d’opérations par seconde — les générations plus récentes poussant encore plus loin ces performances.
La réponse réside dans la manière dont les GPU sont conçus. Contrairement aux CPU, qui traitent les tâches de manière séquentielle, les GPU reposent sur un traitement parallèle, permettant l’exécution simultanée de milliers d’opérations plus petites. Cette approche est généralement décrite comme Single Instruction, Multiple Data (SIMD), où une même instruction est appliquée à de nombreux points de données en parallèle.
Cette architecture, combinée à des mémoires à large bande passante telles que la GDDR6X, permet aux GPU de traiter efficacement des charges de travail intensives en données — du rendu et des transformations d’objets jusqu’aux tâches d’intelligence artificielle de plus en plus complexes.
Plutôt qu’une avancée unique, la vidéo montre que la performance résulte de l’interaction de ces éléments au sein d’un système étroitement intégré, reflétant le rôle élargi que jouent aujourd’hui les GPU dans le calcul haute performance.



