Accueil EntrepriseAI Du SLI à NVLink : l'évolution des technologies de jeu et multi-GPU et leur influence sur l'IA

Du SLI à NVLink : l'évolution des technologies de jeu et multi-GPU et leur influence sur l'IA

by Jordan Ranous
Refroidisseur de processeur HP Z8 Fury G5

Le paysage des unités de traitement graphique (GPU) a connu des changements sismiques au cours des deux dernières décennies, bien plus récemment avec l’essor de l’IA. Une partie importante de cette évolution a été le développement de technologies permettant à plusieurs GPU de fonctionner en tandem. NVIDIA, leader dans le domaine des GPU, a été à l'avant-garde de cette révolution avec deux technologies essentielles : Scalable Link Interface (SLI) et Lien NVIDIA NV. Cet article retrace le parcours du SLI à NVLink, en soulignant comment NVIDIA s'adapte continuellement aux demandes informatiques en constante évolution.

Le paysage des unités de traitement graphique (GPU) a connu des changements sismiques au cours des deux dernières décennies, bien plus récemment avec l’essor de l’IA. Une partie importante de cette évolution a été le développement de technologies permettant à plusieurs GPU de fonctionner en tandem. NVIDIA, leader dans le domaine des GPU, a été à l'avant-garde de cette révolution avec deux technologies essentielles : Scalable Link Interface (SLI) et Lien NVIDIA NV. Cet article retrace le parcours du SLI à NVLink, en soulignant comment NVIDIA s'adapte continuellement aux demandes informatiques en constante évolution.

L'aube du SLI

NVIDIA a introduit le SLI au début des années 2000, initialement développé par 3dfx pour la gamme de cartes Voodoo2, et était la réponse de NVIDIA à la demande croissante d'une plus grande fidélité graphique dans les jeux vidéo et les applications grand public. À la base, SLI utilise une technique connue sous le nom de Alternate Frame Rendering (AFR) pour répartir la charge de travail de rendu sur plusieurs GPU. Chaque carte dessinerait une image sur deux ou même une partie de chaque image, doublant ainsi la puissance graphique. Bien que révolutionnaire à l'époque, le SLI présentait des limites, notamment une latence plus élevée et un manque de flexibilité dans le partage de données entre les GPU.

SLI vs CrossFire : une rivalité dans les solutions multi-GPU

Même si le SLI de NVIDIA a donné le ton aux configurations multi-GPU, ce n'était pas sans concurrence. CrossFire d'AMD était un rival direct, offrant des capacités similaires pour les configurations multi-GPU. Comme SLI, CrossFire visait à améliorer les performances graphiques grâce à des techniques telles que l'Alternate Frame Rendering (AFR) et le Split Frame Rendering (SFR).

Crédit d’image Dallas Moore

Crédit d’image Dallas Moore

Cependant, CrossFire présentait ses propres avantages et défis. Il était généralement plus flexible avec les combinaisons de GPU pouvant être utilisées, permettant un mélange de différentes cartes AMD. En revanche, CrossFire a souvent été critiqué pour sa pile logicielle, que certains utilisateurs trouvaient moins fiable et plus complexe à configurer que le SLI de NVIDIA. Malgré ces différences, les deux technologies visaient le même objectif : améliorer les expériences de jeu et graphiques des consommateurs. Leurs limites dans la gestion de tâches plus avancées et gourmandes en données ouvriraient à terme la voie à des solutions de nouvelle génération telles que NVLink.

Au début des années 2010, le paysage informatique a commencé à changer radicalement. L’essor de l’intelligence artificielle (IA), du calcul haute performance (HPC) et de l’analyse du Big Data a nécessité des solutions multi-GPU plus robustes. Il est devenu évident que le SLI, initialement conçu pour les jeux et les charges de travail des consommateurs, était insuffisant pour ces tâches gourmandes en calcul. NVIDIA avait besoin d'un nouveau paradigme.

L'ère des cartes à double GPU : une approche unique de l'informatique multi-GPU

Alors que des technologies telles que SLI et CrossFire se concentraient sur la connexion de plusieurs GPU discrets, il existait une autre approche, moins courante, des configurations multi-GPU : les cartes à double GPU. Ces cartes graphiques spécialisées abritaient deux cœurs GPU sur un seul PCB (Printed Circuit Board), agissant efficacement comme une configuration SLI ou CrossFire sur une seule carte. Des cartes comme la NVIDIA GeForce GTX 690 et l'AMD Radeon HD 6990 étaient des exemples populaires de cette approche.

Les cartes double GPU offrent plusieurs avantages. Ils ont économisé de l'espace en condensant deux GPU dans un seul emplacement pour carte, ce qui les rend attrayants pour les PC de petit format. Ils ont également simplifié la configuration en éliminant le besoin de relier des cartes distinctes à des connecteurs externes. Cependant, ces cartes n’étaient pas sans problèmes. La dissipation thermique était un problème important, nécessitant souvent des solutions de refroidissement avancées. La consommation d'énergie était également élevée, nécessitant des alimentations puissantes pour stabiliser le système.

Il est intéressant de noter que les cartes à double GPU constituaient une sorte de solution « le meilleur des deux mondes », combinant la puissance brute des configurations multi-GPU avec la simplicité d’une seule carte. Pourtant, ils étaient souvent considérés comme un produit de niche en raison de leur coût élevé et des défis techniques associés. À mesure que les technologies multi-GPU telles que NVLink ont ​​évolué pour offrir une bande passante plus élevée et une latence plus faible, le besoin de cartes à double GPU a diminué. Ils restent néanmoins un chapitre fascinant de l’histoire du développement des GPU.

La gamme de GPU Tesla de NVIDIA était la pierre angulaire de l'informatique d'entreprise, en particulier dans les centres de données et les clusters de calcul hautes performances. Alors que la plupart des GPU Tesla sont des cartes à GPU unique conçues pour des performances et une efficacité maximales, il existe des exceptions comme le Tesla K80, qui comporte deux GPU sur une seule carte. Ces cartes Tesla multi-GPU ont été optimisées pour les calculs hautement parallèles et constituaient un incontournable de la recherche scientifique, de l'apprentissage automatique et de l'analyse du Big Data. Ils sont conçus pour répondre aux demandes spécifiques de ces applications, offrant un débit de calcul élevé, de grandes capacités de mémoire et des fonctionnalités avancées telles que la mémoire ECC (Error-Correcting Code). Bien que moins courantes que leurs homologues à GPU unique, ces cartes Tesla à double GPU présentaient une solution puissante, quoique de niche, dans l'informatique d'entreprise.

L'avènement de NVLink

Entrez NVLink, introduit avec l'architecture Volta de NVIDIA en 2017. Cette technologie n'était pas seulement une mise à niveau mais une refonte fondamentale de la façon dont les GPU pouvaient être interconnectés. NVLink offrait une bande passante nettement plus élevée (jusqu'à 900 Go/s avec les dernières versions), une latence plus faible et une topologie maillée qui permettait des interconnexions plus complexes et plus nombreuses entre les GPU. De plus, NVLink a introduit le concept de mémoire unifiée, permettant la mise en commun de mémoire entre les GPU connectés, une fonctionnalité cruciale pour les tâches nécessitant de grands ensembles de données.

Evolution des performances NVLink

Evolution des performances NVLink

SLI contre NVLink

À première vue, on pourrait considérer NVLink comme un « SLI sous stéroïdes », mais ce serait une simplification excessive. Alors que les deux technologies visent à relier plusieurs GPU, NVLink est conçu pour un public différent. Il est conçu pour la recherche scientifique, l’analyse de données et, plus particulièrement, les applications d’IA et d’apprentissage automatique. La bande passante plus élevée, la latence plus faible et la mémoire unifiée font de NVLink une solution beaucoup plus flexible et puissante pour relever les défis informatiques d'aujourd'hui.

Backbone technique de NVLink

NVLink représente une évolution logique dans la technologie d'interconnexion multi-GPU, non seulement en termes de vitesse mais également de conception architecturale. La structure de NVLink est composée de voies de données à haut débit capables de transférer des données de manière bidirectionnelle. Contrairement aux systèmes traditionnels basés sur un bus, NVLink utilise une connexion point à point, réduisant efficacement les goulots d'étranglement et améliorant le débit de données. Les itérations les plus récentes offrent des bandes passantes allant jusqu'à 900 Go/s, une amélioration significative par rapport aux capacités du SLI.

HP Z8 Fury G5 Intérieur

HP Z8 Fury G5 avec 4 GPU A6000

L'une des fonctionnalités clés qui distinguent NVLink est sa capacité à prendre en charge une topologie maillée. Contrairement aux topologies en série ou en étoile des technologies plus anciennes, une configuration maillée permet des connexions plus polyvalentes et plus nombreuses entre les GPU. Ceci est particulièrement utile dans les centres de données et les applications de calcul haute performance où les routes de données complexes sont la norme.

La mémoire unifiée est une autre fonctionnalité de NVLink. Cela permet aux GPU de partager un pool de mémoire commun, permettant un partage de données plus efficace et réduisant le besoin de copier des données entre les GPU. Il s’agit d’un énorme coup de pouce pour les applications telles que l’apprentissage automatique et l’analyse du Big Data, où les grands ensembles de données dépassent souvent la capacité de mémoire d’un seul GPU.

NVLink améliore également la latence, un facteur crucial dans toute configuration informatique haute performance. Une latence plus faible garantit un transfert de données et une synchronisation plus rapides entre les GPU, conduisant à des calculs parallèles plus efficaces. Ceci est réalisé grâce aux capacités d'accès direct à la mémoire (DMA) de NVLink, permettant aux GPU de lire et d'écrire directement dans la mémoire de chacun sans impliquer le CPU.

L'impact sur l'IA et l'apprentissage automatique

Compte tenu de l’importance croissante de l’IA dans l’informatique moderne, les avantages de NVLink ne sont pas seulement progressifs mais transformateurs. Dans la formation de modèles d'IA et la création de données, NVLink permet un transfert de données plus rapide entre les GPU, permettant un traitement parallèle plus efficace. Ceci est particulièrement avantageux lorsque l’on travaille avec de grands ensembles de données de formation, un sujet qui correspond étroitement au domaine émergent de la création de données de formation de modèles d’IA.

Avec les demandes croissantes de l'informatique avancée comme les simulations quantiques, l'analyse en temps réel et les algorithmes d'IA de nouvelle génération, nous pouvons nous attendre à de nouvelles améliorations des capacités de NVLink. Qu'il s'agisse d'une augmentation de la bande passante ou de nouvelles fonctionnalités facilitant une coopération encore plus grande entre les GPU, NVLink ou son successeur restera sans aucun doute essentiel pour répondre aux besoins informatiques de demain.

La transition du SLI vers NVLink marque une étape importante pour les technologies multi-GPU. Il reflète l'engagement de NVIDIA en faveur de l'innovation et sa compréhension approfondie du paysage informatique en évolution. Des jeux à l'IA, des applications grand public aux centres de données, les racines de NVLink dans les jeux et le SLI illustrent comment la nécessité engendre l'innovation, faisant avancer la technologie dans un cycle d'amélioration sans fin.

S'engager avec StorageReview 

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS