Lors d'une présentation à l'ISC 23, Intel a souligné son leadership en matière de performances pour les charges de travail de calcul haute performance (HPC) et d'intelligence artificielle (IA), a partagé son portefeuille de futurs produits HPC et IA et a annoncé des plans ambitieux pour un effort international visant à utiliser l'Aurora supercalculateur pour développer des modèles d'IA génératifs pour la science et la société.
Lors d'une présentation à l'ISC 23, Intel a souligné son leadership en matière de performances pour les charges de travail de calcul haute performance (HPC) et d'intelligence artificielle (IA), a partagé son portefeuille de futurs produits HPC et IA et a annoncé des plans ambitieux pour un effort international visant à utiliser l'Aurora supercalculateur pour développer des modèles d'IA génératifs pour la science et la société.
Les performances compétitives étaient en tête de l'affiche, où les résultats d'Intel étaient clairement gagnants face à la concurrence. La série Data Center GPU Max d'Intel a surpassé la carte PCIe NVIDIA H100 de 30 % en moyenne sur diverses charges de travail. Des résultats indépendants du fournisseur de logiciels Ansys ont indiqué une accélération de 50 % pour le GPU de la série Max par rapport au H100 sur les applications HPC accélérées par l'IA.
Le processeur de la série Xeon Max a démontré une amélioration de 65 % par rapport au processeur Genoa d'AMD sur la référence HPCG (High-Performance Conjugate Gradients), et il a utilisé moins d'énergie. Un favori HPC, le processeur évolutif Intel Xeon de 4e génération, a offert une accélération moyenne de 50 % par rapport au Milan4 d'AMD. Le tout dernier cluster HPC Xeon de 4e génération de BP a montré une augmentation de 8 fois les performances par rapport à son processeur de génération précédente avec une efficacité énergétique améliorée. L'accélérateur d'apprentissage en profondeur Gaudi2 a obtenu des performances compétitives en matière d'apprentissage en profondeur, de formation et d'inférence, avec des performances jusqu'à 2.4 fois plus rapides que l'A100 de NVIDIA.
Processeurs de nouvelle génération et GPU optimisés pour l'IA
Jeff McVeigh d'Intel, vice-président d'Intel et directeur général du Super Compute Group, a présenté les processeurs de nouvelle génération d'Intel conçus pour répondre aux exigences élevées en matière de bande passante mémoire. Intel a développé un nouveau type de DIMM – Multiplexer Combined Ranks (MCR) – pour Granite Rapids. MCR atteint des vitesses de 8,800 5 mégatransferts par seconde sur la base de la DDR1.5 et une capacité de bande passante mémoire supérieure à XNUMX téraoctets/seconde (To/s) dans un système à deux sockets.
Intel a également dévoilé un nouveau sous-système basé sur GPU de la série x8 Max optimisé pour l'IA de Supermicro, conçu pour accélérer la formation à l'apprentissage en profondeur. Les OEM devraient proposer des solutions avec les sous-systèmes OAM x4 et x8 des GPU Max Series et les cartes PCIe cet été.
Le GPU Max Series de nouvelle génération d'Intel, Falcon Shores, offrira aux clients la flexibilité d'implémenter des combinaisons de CPU et de GPU discrets au niveau du système pour les charges de travail nouvelles et en constante évolution du futur. Le système Falcon Shores utilise une architecture modulaire basée sur des tuiles, ce qui lui permet de :
- Prend en charge les types de données HPC et AI de FP64 à BF16 à FP8.
- Activez jusqu'à 288 Go de mémoire HBM3 avec une bande passante totale allant jusqu'à 9.8 To/s et des E/S haute vitesse considérablement améliorées.
- Renforcez le modèle de programmation CXL.
- Présentez une interface de programmation GPU unifiée via oneAPI.
IA générative pour la science
Le Laboratoire national d'Argonne, en collaboration avec Intel et HPE, a annoncé son intention de créer une série de modèles d'IA générative pour la communauté de la recherche scientifique. Ces modèles d'IA générative pour la science seront formés sur du texte général, du code, des textes scientifiques et des données scientifiques structurées issues de la biologie, de la chimie, de la science des matériaux, de la physique, de la médecine et d'autres sources.
Les modèles résultants (avec jusqu'à 1 billion de paramètres) seront utilisés dans une variété d'applications scientifiques, de la conception de molécules et de matériaux à la synthèse des connaissances à travers des millions de sources pour suggérer de nouvelles expériences passionnantes en biologie des systèmes, chimie des polymères et les matériaux énergétiques, la climatologie et la cosmologie. Le modèle sera également utilisé pour accélérer l'identification des processus biologiques liés au cancer et à d'autres maladies et suggérer des cibles pour la conception de médicaments.
Pour faire avancer le projet, Argonne est le fer de lance d'une collaboration internationale qui comprend :
- Intel
- HPE
- Département des laboratoires de l'énergie
- Universités américaines et internationales
- Nonprofits
- Partenaires Internationaux
Aurora devrait offrir plus de deux exaflops de performances de calcul à double précision de pointe lors de son lancement cette année.
Avantages oneAPI Applications HPC
Les derniers outils Intel oneAPI offrent des accélérations pour les applications HPC avec le déchargement du GPU OpenMP, étendent la prise en charge d'OpenMP et de Fortran, et accélèrent l'IA et l'apprentissage en profondeur grâce à des cadres optimisés, notamment TensorFlow et PyTorch, et des outils d'IA, permettant des améliorations accrues des performances.
La programmation multiarchitecture est plus facile pour les programmeurs grâce à l'implémentation SYCL de oneAPI, aux plug-ins oneAPI pour les processeurs NVIDIA et AMD développés par Codeplay et à l'outil de compatibilité Intel DPC++ qui migre le code de CUDA vers SYCL et C++, où 90 à 95 % du code migre généralement automatiquement. . Le code SYCL résultant affiche des performances comparables avec le même code exécuté sur les langages systèmes natifs NVIDIA et AMD. Les données montrent que le code SYCL pour l'application d'astrophysique DPEcho exécutée sur le GPU Max Series surpasse de 100 % le même code CUDA sur NVIDIA H48.
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS