Acceuil Entreprise Annonce des processeurs AMD EPYC et de l'accélérateur AMD Instinct de nouvelle génération pour l'IA générative

Annonce des processeurs AMD EPYC et de l'accélérateur AMD Instinct de nouvelle génération pour l'IA générative

by Harold Fritt

AMD a profité de son événement "Data Center and AI Technology Premiere" pour annoncer de nouveaux produits et expliquer comment l'entreprise façonnera la prochaine phase d'innovation des centres de données. L'annonce comprend des mises à jour de la famille de processeurs EPYC de 4e génération, de la nouvelle famille d'accélérateurs AMD Instinct MI300 et d'un portefeuille de mise en réseau mis à jour.

AMD a profité de son événement "Data Center and AI Technology Premiere" pour annoncer de nouveaux produits et expliquer comment l'entreprise façonnera la prochaine phase d'innovation des centres de données. L'annonce comprend des mises à jour de la famille de processeurs EPYC de 4e génération, de la nouvelle famille d'accélérateurs AMD Instinct MI300 et d'un portefeuille de mise en réseau mis à jour.

Processeur EPYC de 4e génération optimisé pour le centre de données moderne

Les mises à jour de la famille EPYC de 4e génération dévoilées au début de la première de Data Center et de la technologie AI d'AMD incluent une spécialisation de la charge de travail qui répond aux demandes spécifiques de l'entreprise. AMD a présenté ses processeurs AMD EPYC 4X97 de 4e génération, précédemment nommés "Bergamo", offrant une plus grande densité de vCPU et des performances accrues ciblant les applications qui s'exécutent dans le cloud.

Modèle Noyau Nombre maximum de fils TDP par défaut Fréq. (GHz) Boost Fréq. (GHz) Cache L3 (Mo)
9754 128 256 360W 2.25 3.10 256
9754S 128 128 360W 2.25 3.10 256
9734 112 224 320W 2.2 3.0 256

AMD fait une avancée significative dans l'écosystème de l'IA avec cette annonce, qui inclut les nouveaux processeurs AMD EPYC 4X97 de 4e génération. Ces processeurs sont spécialement conçus pour répondre aux exigences spécialisées des charges de travail modernes. Avec un nombre impressionnant de cœurs de 128 cœurs (Quelqu'un d'autre a faim de tarte ?), ils fournissent une puissance de calcul inégalée pour les applications d'IA.

Processeur AMD Bergame

L'augmentation du nombre de cœurs, ainsi que l'amélioration de l'efficacité énergétique et immobilière, permettent à ces processeurs de gérer des calculs d'IA complexes tout en prenant en charge jusqu'à trois fois plus de conteneurs par serveur. Cette avancée contribue à l'adoption croissante d'applications d'IA natives du cloud.

Modèle Noyau Nombre maximum de fils TDP par défaut Fréq. (GHz) Boost Fréq. (GHz) Cache L3 (Mo)
9684X 96 192 400W 2.55 3.70 1,152
9384X 32 64 320W 3.10 3.90 768
9184X 16 32 320W 3.55 4.20 768

Les derniers processeurs AMD EPYC Zen 4, équipés de 3D V-Cache, nom de code Genoa-X, ont été identifiés comme le principal processeur de serveur x86 pour le calcul technique dans une récente SPEC.org rapport. Ces processeurs de pointe apportent le V-Cache 3D aux puces Zen 96 à 4 cœurs et offrent un cache L3 expansif dépassant 1 Go, ce qui facilite le développement rapide du produit. Selon AMD, ces processeurs peuvent considérablement accélérer le développement de produits, en réalisant jusqu'au double des travaux de conception par jour tout en utilisant moins de serveurs et moins d'énergie.

Faire progresser la plate-forme d'IA

AMD a présenté son plan pour améliorer sa plate-forme d'IA en offrant à ses clients une gamme de produits matériels, du cloud à la périphérie en passant par les terminaux, et une collaboration étendue avec les logiciels de l'industrie pour créer des solutions d'IA adaptables et généralisées.

AMD a partagé les détails de l'accélérateur AMD Instinct MI300 Series famille, y compris l'accélérateur AMD Instinct MI300X, un accélérateur avancé pour l'IA générative.

L'introduction de l'accélérateur AMD Instinct MI300X est intrigante. Cette unité de traitement accéléré (APU) de pointe fait partie de l'architecture d'accélérateur CDNA 3 de nouvelle génération d'AMD et comprend jusqu'à 192 Go de mémoire HBM3. Ce vaste pool de mémoire est conçu pour faire face aux charges de travail d'IA exigeantes, en particulier celles impliquant l'inférence de grands modèles de langage (LLM) et l'IA générative. La vaste capacité du MI300X peut accueillir même les plus grands modèles de langage, tels que Falcon-40B, sur un seul accélérateur GPU. Cela représente une avancée potentiellement transformatrice pour le traitement et l'efficacité de l'IA.

L'introduction de l'AMD MI300X sur le marché pourrait potentiellement perturber la suprématie existante de NVIDIA car il est conçu pour défier le leader du marché en titre, le NVIDIA H100. NVIDIA détient la majorité des parts de ce segment de marché lucratif et en pleine expansion, avec une part de marché d'environ 60 à 70 % dans les serveurs d'IA. L'introduction d'un accélérateur aussi performant à ce stade sera bénéfique pour l'écosystème dans son ensemble, qui est principalement lié à CUDA de NVIDIA. 20 % supplémentaires sont fournis par des puces intégrées spécifiques aux applications (ASIC) conçues par des fournisseurs de serveurs cloud, notamment les puces Inferentia et Trainium d'Amazon, et les unités de traitement de tenseur (TPU) d'Alphabet.

Plate-forme d'architecture AMD Infinity

AMD a également présenté la plate-forme d'architecture AMD Infinity, réunissant huit accélérateurs MI300X dans une conception standard de l'industrie pour une inférence et une formation améliorées de l'IA générative.

Le MI300X échantillonne aux clients clés à partir du troisième trimestre. Le premier accélérateur APU pour les charges de travail HPC et IA, l'AMD Instinct MI3A, est actuellement en cours d'échantillonnage pour les clients.

Soulignant la collaboration avec les leaders de l'industrie pour rassembler un écosystème d'IA ouvert, AMD a présenté l'écosystème logiciel AMD ROCm pour les accélérateurs de centres de données.   

Un portefeuille de mise en réseau pour le cloud et l'entreprise 

AMD a également présenté son portefeuille de réseaux, qui comprend le DPU AMD Pensando, AMD Cartes réseau à latence ultra faible et carte réseau adaptative AMD. Les DPU AMD Pensando combinent un pile logicielle avec « sécurité zéro confiance » et un processeur de paquets programmable pour créer un DPU intelligent et performant.

AMD a mis en avant la prochaine génération de son DPU, nom de code « Giglio », qui vise à apporter des performances et une efficacité énergétique améliorées par rapport aux produits de la génération actuelle et devrait être disponible d'ici la fin de 2023. 

L'annonce finale s'est concentrée sur le kit de développement AMD Pensando Software-in-Silicon (SSDK), offrant clients la possibilité de développer ou de migrer rapidement des services à déployer sur l'AMD Pensando P4 DPU programmable en coordination avec l'ensemble existant de fonctionnalités actuellement implémentées sur la plate-forme AMD Pensando. Le SSDK AMD Pensando permet aux clients de mettre la puissance de le DPU AMD Pensando pour travailler et personnaliser la virtualisation et la sécurité du réseau fonctionnalités au sein de leur infrastructure. 

Processeurs AMD EPYC de 4e génération 

Accélérateurs AMD Instinct 

Solutions réseau AMD 

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS