Startseite Unternehmen Einführung der skalierbaren Intel Xeon-Prozessoren der 4. Generation

Einführung der skalierbaren Intel Xeon-Prozessoren der 4. Generation

by Lyle Smith
Intel Xeon der 4. Generation, skalierbar mit HBM

Intel hat seine skalierbaren Intel Xeon-Prozessoren der vierten Generation (Sapphire Rapids), die Intel Xeon CPU Max-Serie (Sapphire Rapids HBM) und die Intel Data Center GPU Max-Serie (Ponte Vecchio) auf den Markt gebracht. Sie wurden speziell entwickelt, um die Leistung, Effizienz, Sicherheit und Fähigkeiten von Rechenzentren für KI, Cloud Computing, Netzwerke, Edge Computing und Supercomputer zu verbessern. Intel arbeitet mit Kunden zusammen, um mithilfe der neuen Produkte maßgeschneiderte Lösungen und Systeme anzubieten, um den Computeranforderungen in großem Maßstab gerecht zu werden.

Intel hat seine skalierbaren Intel Xeon-Prozessoren der vierten Generation (Sapphire Rapids), die Intel Xeon CPU Max-Serie (Sapphire Rapids HBM) und die Intel Data Center GPU Max-Serie (Ponte Vecchio) auf den Markt gebracht. Sie wurden speziell entwickelt, um die Leistung, Effizienz, Sicherheit und Fähigkeiten von Rechenzentren für KI, Cloud Computing, Netzwerke, Edge Computing und Supercomputer zu verbessern. Intel arbeitet mit Kunden zusammen, um mithilfe der neuen Produkte maßgeschneiderte Lösungen und Systeme anzubieten, um den Computeranforderungen in großem Maßstab gerecht zu werden.

Derzeit sind weltweit über 100 Millionen einzelne Xeon-Prozessoren im Einsatz. Warum sind sie so beliebt? Nun, sie sind in verschiedenen Konfigurationen erhältlich und skalierbar, sodass sie in einer Vielzahl von Anwendungen und Umgebungen eingesetzt werden können. Sie können außerdem an bestimmte Arbeitslasten oder Anwendungen angepasst werden, bieten eine Reihe von Sicherheitsfunktionen zum Schutz vor Bedrohungen wie Malware und Datenschutzverletzungen und sind äußerst energieeffizient.

Intel Xeon-Prozessor der 4. Generation vorne und hintenSkalierbare Intel Xeon-CPU-Modelle der 4. Generation

Die neuen Xeon-Modelle sind in sechs Kategorien erhältlich, darunter Max 9400, Platinum 8000, Gold 6000, Gold 5000, Silver 4000 und Bronze 3000 sowie die Max-Serie. Jede Serie verfügt über eine Reihe unterschiedlicher Modelle, die auf den jeweiligen Zielanwendungsfall heruntergebrochen werden können:

  • Leistung für allgemeine Zwecke
  • Hauptleitung für allgemeine Zwecke
  • Flüssigkeitskühlung für allgemeine Zwecke
  • Einzelsteckdose für allgemeine Zwecke („Q“-Serie)
  • Langlebiger Einsatz (IoT) für allgemeine Zwecke („T“-Serie)
  • IMDB/Analytics/Virtualisierung optimiert („H“-Serie)
  • 5G/Netzwerk optimiert („N“-Serie)
  • Cloud-optimiertes IaaS („P“, „V“ und „M“-Serie)
  • Speicher und hyperkonvergente Infrastruktur optimiert („S“-Serie)
  • HPC-optimiert (d. h. die Intel Xeon CPU Max-Serie)

Skalierbares Intel Xeon-Silizium der 4. Generation

Zum Beispiel die Mächtigen Platinum 8400 Prozessoren sind für erweiterte Datenanalyse, KI und Hybrid-Cloud-Rechenzentren konzipiert und bieten hohe Leistung, Plattformfunktionen und Arbeitslastbeschleunigung sowie verbesserte hardwarebasierte Sicherheit und Multi-Socket-Verarbeitung. Diese Prozessoren bieten außerdem bis zu 60 Kerne pro Prozessor (eine Steigerung von 20 Kernen im Vergleich zur Spitze). Xeon-Modell der 3. Generation), acht Speicherkanäle und KI-Beschleunigung mit Intel AMX.

Intel Xeon der 4. Generation, skalierbar mit HBM

Intel Xeon Gold 6400 und Gold 5400 Prozessoren sind für Rechenzentrums- und Multi-Cloud-Workloads optimiert. Sie bieten verbesserte Speichergeschwindigkeit, Kapazität, Sicherheit und Arbeitslastbeschleunigung. Intel Xeon Silver 4400 Prozessoren bieten wesentliche Leistung, verbesserte Speichergeschwindigkeit und Energieeffizienz für Rechenzentren, Netzwerke und Speicher der Einstiegsklasse.

Hier ist eine detaillierte Übersicht über jede Xeon-CPU und ihren angestrebten Anwendungsfall:

Eigenschaften Skalierbare Intel Xeon-Prozessoren der 4. Generation Intel Xeon CPU Max-Serie
Extreme Kernanzahl (XCC) Mittlere Kernanzahl (MCC) Speicher mit hoher Bandbreite (HBM)
 

Werkzeugbau

Vier Kacheln, verbunden mit MDF über Intel Embedded Multi-Die Interconnect Bridge (EMIB)  

Ein monolithischer Chip

Vier Kacheln, verbunden mit MDF über Intel Embedded Multi-Die Interconnect Bridge (EMIB)
Kernzählung Bis zu 60 aktive Kerne Bis zu 32 aktive Kerne Bis zu 56 aktive Kerne
TDP-Bereich 225 bis 350W 125 bis 350W 350W
 

Memory

DDR5 @ 4800 (1 DPC), 4400 (2DPC), 16 GB DRAM, 8 Kanäle

Intel Optane PMem 300 (Crow Pass) mit 4400 MT/s

DDR5 @ 4800 (1 DPC), 4400 (2DPC), 8 Kanäle

64 GB HBM2e-Speicher mit bis zu 1.14 GB/Kern

Intel UPI UPI 2.0 bei 16 GT/s, bis zu 4 Ultra Path Interconnects UPI 2.0 bei 16 GT/s, bis zu 3 Ultra Path Interconnects UPI 2.0 bei 16 GT/s, bis zu 4 Ultra Path Interconnects
Skalierbarkeit 1 Sockel, 2 Sockel, 4 Sockel, 8 Sockel 1 Sockel, 2 Sockel, 4 Sockel 1 Sockel, 2 Sockel
PCIe/Compute Express Link PCIe 5.0 (80 Lanes),

Bis zu 4 Geräte werden über Compute Express Link (CXL) 1.1 unterstützt

Sicherheit Intel-SGX

Mindestgröße des Enclave Page Cache (EPC) 256 MB

Intel SGX (nur Flat-Modus)
Integrierte IP-Beschleuniger Intel QAT, DLB, IAA, DSA (jeweils bis zu 4 Geräte) Intel QAT, DLB (jeweils bis zu 2 Geräte), Intel DSA, IAA (je 1 Gerät) Intel DSA (4 Geräte)

Die skalierbaren Intel Diese Prozessoren zeichnen sich dadurch aus, dass sie von allen CPUs über die meisten integrierten Beschleuniger verfügen.

Laut Intel können Kunden der 4. Generation von Intel Xeon Scalable mit einer durchschnittlichen Leistungsverbesserung wie folgt rechnen:

  • 9-fache Verbesserung der Effizienz pro Watt bei Verwendung integrierter Beschleuniger,
  • 70 Watt Stromeinsparung pro CPU im optimierten Energiemodus mit minimalem Leistungsverlust,
  • Reduzierung der Gesamtbetriebskosten und des Stromverbrauchs um XNUMX Prozent im Vergleich zu früheren Generationen.

Intel Xeon Scalable der 4. Generation – verbesserte Energieeffizienz

Der neue optimierte Energiemodus kann bis zu 20 Prozent Steckdosenstrom einsparen, bei weniger als 5 Prozent Leistungseinbußen für bestimmte Arbeitslasten. Innovationen in der Luft- und Flüssigkeitskühlung können den Gesamtenergieverbrauch von Rechenzentren weiter senken.

Die skalierbaren Intel Dies kann ihren Kunden helfen, ihre Nachhaltigkeitsziele zu erreichen. Darüber hinaus wird erwartet, dass der neu eingeführte Optimized Power Mode bis zu 4 Prozent Steckdosenstrom einspart und die Leistung bei bestimmten Arbeitslasten nur minimal beeinträchtigt.

Skalierbare Nachhaltigkeit der 4. Generation von Intel Xeon

Innovationen in der Luft- und Flüssigkeitskühlung können den Gesamtenergieverbrauch von Rechenzentren weiter senken. Die Xeon-Prozessoren der 4. Generation wurden außerdem zu 90 Prozent oder mehr mit erneuerbarem Strom an Intel-Standorten mit fortschrittlichen Wasseraufbereitungsanlagen hergestellt.

Neue Fortschritte in der KI-Leistung

Im Vergleich zur vorherigen Generation sollen die Xeon-Prozessoren der 4. Generation durch den Einsatz ihrer Advanced Matrix Extension (Intel AMX)-Beschleuniger eine bis zu zehnmal höhere PyTorch-Echtzeit-Inferenz- und Trainingsleistung erreichen.

PyTorch ist ein Framework für maschinelles Lernen zum Aufbau und Training neuronaler Netze. Bei der Echtzeitinferenz wird ein trainiertes neuronales Netzwerkmodell verwendet, um Echtzeitvorhersagen oder Entscheidungen auf der Grundlage neuer Eingabedaten zu treffen. Eine höhere PyTorch-Echtzeit-Inferenz- und Trainingsleistung ist für Intel-Prozessoren von entscheidender Bedeutung, da sie damit maschinelle Lernarbeitslasten, die Echtzeitvorhersagen oder Entscheidungsfindung beinhalten, effizienter ausführen können.

Dies ist besonders nützlich bei Anwendungen, bei denen es auf schnelle und genaue Vorhersagen oder Entscheidungen ankommt. Darüber hinaus kann eine höhere Leistung bei maschinellen Lernaufgaben zu einem schnelleren Training von Modellen und genaueren Vorhersagen sowie der Möglichkeit führen, größere und komplexere Modelle zu verwenden.

Daher gibt Intel an, dass seine neuen skalierbaren Intel

Die KI-Software-Suite von Intel wurde mit über 400 KI-Modellen für maschinelles Lernen und Deep Learning in verschiedenen Branchen und Anwendungen getestet und kann mit dem bevorzugten KI-Tool des Entwicklers verwendet werden, um die Produktivität zu steigern und die KI-Entwicklung zu beschleunigen. Die Suite ist portabel konzipiert, sodass sie auf der Workstation verwendet und am Edge und in der Cloud bereitgestellt werden kann.

Netzwerkfähigkeiten

Die skalierbaren Intel Xeon Prozessoren der 4. Generation bieten außerdem speziell optimierte Modelle für leistungsstarke Netzwerke mit geringer Latenz und Edge-Workloads. Diese Prozessoren spielen eine entscheidende Rolle dabei, eine stärker softwaredefinierte Zukunft für Branchen wie Telekommunikation, Einzelhandel, Fertigung und Smart Cities voranzutreiben. Bei 5G-Kern-Workloads können die integrierten Beschleuniger dazu beitragen, den Durchsatz zu erhöhen und die Latenz zu verringern, während Verbesserungen bei der Energieverwaltung die Reaktionsfähigkeit und Effizienz der Plattform verbessern.

Sie können auch die Kapazität des Virtualized Radio Access Network (vRAN) im Vergleich zu 3 verdoppelnrd-Gen-Xeon-Prozessoren (ohne mehr Strom zu verbrauchen). Im Allgemeinen können Prozessoren mit einer höheren vRAN-Kapazität den Netzwerkdatenverkehr effizienter und effektiver verarbeiten, indem sie beispielsweise die Latenz reduzieren und die Gesamtleistung verbessern. Dies ist besonders wichtig für Anwendungen, die eine Echtzeitkommunikation erfordern.

Intel gibt an, dass Kommunikationsdienstanbieter dadurch ihre Leistung pro Watt verdoppeln und ihre Leistungs- und Energieeffizienzanforderungen erfüllen können. Die Zunahme von vRAN würde es Unternehmen auch ermöglichen, einfacher zu skalieren, wenn sich die Anzahl der vRAN-Arbeitslasten ändert, was eine größere Flexibilität bei den Netzwerkressourcen bedeutet (z. B. ohne dass zusätzliche Hardware, Strom oder Infrastruktur erforderlich ist).

HPC

Skalierbares Intel Xeon HPC-System der 4. Generation im Intel-Labor

Compute Blade (offenes Gehäuse) im Intel HPC-Labor

Die Produkte der 4. Generation Intel Intel behauptet, dass diese Architektur speziell für die Bewältigung der schwierigsten Probleme der heutigen Welt entwickelt wurde.

Bei der offenen OneAPI-Software handelt es sich um eine Reihe von Tools und Bibliotheken, mit denen Entwickler mithilfe eines einzigen Satzes von Programmierschnittstellen Code schreiben können, der auf verschiedenen Hardwareplattformen (einschließlich CPUs, GPUs und anderen spezialisierten Prozessoren) ausgeführt werden kann. Dies kann die Entwicklung und Optimierung von Anwendungen für verschiedene Computerumgebungen erleichtern.

Compute Blade im Intel HPC-Labor

Compute Blade im Intel HPC-Labor

Auf der Jones Farm von Intel warf StorageReview einen Blick hinter die Kulissen von Borealis. Intel, HPE und das Argonne National Laboratory arbeiten an der Lieferung des Aurora-Supercomputers, der mit den heute angekündigten neuen Xeon- und Datacenter-GPU-Plattformen der 4. Generation implementiert wird.

Borealis ist ein Zwei-Rack-Minisystem im Jones Farm-Labor in Oregon, das das Aurora-System und seine neuen Technologien validiert. Es hat die gleiche Architektur und das gleiche Design wie Aurora und wird getestet, um alle Komponenten der Software und Flüssigkeitskühlsysteme zu validieren, bevor das System im Argonne National Laboratory in großem Maßstab installiert wird.

Wasserkühlsystem: Laborleiter im Jones Farm HPC Lab – Borealis präsentiert die roten und blauen Röhren, die Teil des Wasserkühlsystems sind, um die Racks kühl zu halten.

Wasserkühlsystem: Laborleiter im Jones Farm HPC Lab – Borealis präsentiert die roten und blauen Röhren, die Teil des Wasserkühlsystems sind, um die Racks kühl zu halten.

Die Intel Xeon CPU/GPU Max-Serie

Die Intel Das Unternehmen bezeichnet die Intel Data Center GPU Max-Serie als seinen Prozessor mit der höchsten Dichte, der in verschiedenen Formfaktoren erhältlich sein wird, um einer Reihe von Kundenanforderungen gerecht zu werden.

Die Xeon CPU Max-Serie bietet im Paket 64 GB Speicher mit hoher Bandbreite, was den Datendurchsatz für HPC- und KI-Workloads deutlich erhöht. Im Vergleich zu skalierbaren Intel Die CPU-Bandbreite ist für HPC- und KI-Workloads von entscheidender Bedeutung, da häufig große Datenmengen verarbeitet und zwischen CPU und Speicher verschoben werden müssen. Andernfalls kann es zu Engpässen in der Systemleistung und zu längeren Verarbeitungszeiten kommen.

Die Data Center GPU Max-Serie, die über 100 Milliarden Transistoren in einem 47-Kachel-Paket umfasst, sorgt für einen höheren Durchsatz bei Arbeitslasten, die Physik, Finanzdienstleistungen und Biowissenschaften umfassen. In Kombination mit der Xeon CPU Max-Serie kann die Plattform eine bis zu 12.8-mal höhere Leistung als die vorherige Generation erzielen, wenn der Open-Source-Code LAMMPS (Large-scale Atomic/Molecular Massively Parallel Simulator)-Molekulardynamiksimulator ausgeführt wird.

Intel Data Center GPU

Intel hat das auf den Markt gebracht GPU-Flex-Serie für Rechenzentren bereits im August 2022 eine Xe HPG-basierte Karte mit bis zu 16 (8 pro GPU) X-Kernen, 16 TFLOPS und 16 GB Speicherkapazität.

Intel On-Demand

Intel On-Demand ist ein Dienst, der es Kunden ermöglicht, die Beschleuniger und hardwaregestützten Funktionen zu erweitern oder zu aktualisieren, die auf den meisten skalierbaren Intel Xeon Prozessoren der 4. Generation verfügbar sind. Der Dienst wird von Intel und Hardwareanbietern verwaltet und besteht aus einer API zur Lizenzbestellung und einem Software-Agenten zur Lizenzbereitstellung und -aktivierung.

Kunden können sich dafür entscheiden, On-Demand-Funktionen zum Zeitpunkt des Kaufs oder als Upgrade nach dem Kauf zu kaufen, und Intel arbeitet außerdem an einem Messmodell zur Einführung, bei dem die Funktionen nach Bedarf ein- und ausgeschaltet werden können und die Bezahlung darauf basiert Verwendung. Die Einführung des Aktivierungsmodells mit Xeon-Prozessoren der 4. Generation ermöglicht es Kunden, voll ausgestattete Premium-SKUs zu wählen oder jederzeit während des Prozessorlebenszyklus Funktionen hinzuzufügen.

Zu den ersten Anbietern von On-Demand gehören H3C, Inspur, Lenovo, Supermicro und Variscale, wobei Intel mit weiteren Anbietern an ihren Aktivierungsplänen arbeitet.

DRM auf Chipebene oder Digital Rights Management bezieht sich auf eine Technologie, die den Zugriff auf bestimmte Funktionen oder Fähigkeiten von Computerchips steuert. Im Zusammenhang mit Intel On-Demand könnte DRM auf Chipebene möglicherweise verwendet werden, um den Zugriff auf bestimmte Funktionen oder Fähigkeiten der skalierbaren Intel Xeon Prozessoren der 4. Generation einzuschränken, sofern diese nicht über den On-Demand-Dienst erworben oder aktiviert werden. Dies könnte Auswirkungen auf das Recht auf Reparatur haben, da es für Einzelpersonen oder unabhängige Reparaturwerkstätten möglicherweise schwieriger wird, auf bestimmte Aspekte von Systemen zuzugreifen und diese zu reparieren, die mit Intel On-Demand ausgestattet sind.

Umweltverträglichkeit ist ein wichtiger Aspekt bei der Verwendung und Entsorgung von Technologieprodukten, einschließlich Unternehmens-CPUs. Während Intel On-Demand es Kunden möglicherweise ermöglicht, die Fähigkeiten ihrer Prozessoren zu erweitern oder zu verbessern, ist unklar, wie sich dieser Service auf die Umweltverträglichkeit der Produkte auswirken könnte. Da sich die TDP des Pakets bei der Aktivierung nicht ändert, müssen möglicherweise der Energieverbrauch der ungenutzten Funktionen und das Potenzial für erhöhten Elektroschrott aufgrund von Upgrades oder Ersetzungen berücksichtigt werden. Für Unternehmen wie Intel ist es von entscheidender Bedeutung, die Umweltauswirkungen ihrer Produkte und Dienstleistungen zu berücksichtigen und auf nachhaltigere Lösungen hinzuarbeiten.

Skalierbare Intel Xeon-Leistung der 4. Generation Testen

Der Schwerpunkt des skalierbaren Intel Es wird beworben, dass diese neuen Prozessoren eine Effizienzsteigerung von 4 Prozent (für allgemeine Rechenzwecke) gegenüber den skalierbaren Xeon-Prozessoren der 53. Generation durch verbesserte Fertigungsverfeinerungen und bei gezielten Arbeitslasten eine 3-fache durchschnittliche Leistungssteigerung pro Watt durch integrierte Beschleuniger erzielen.

Zusätzlich zu diesen Verbesserungen sind die Mid-Tier-Chips der neuen Generation genauso leistungsstark wie die Top-Tier-Modelle der letzten Generation, was sie zu einer kostengünstigen Option für Rechenzentrumsbetreiber macht. Diese Mittelklasse-Chips können Rechenzentren dabei helfen, ihre Kosten zu optimieren und eine bessere Gesamteffizienz zu erreichen, indem sie eine ähnliche Leistung wie die Flaggschiff-Modelle zu einem niedrigeren Preis bieten.

Wir hatten einige Möglichkeiten, die Leistung von Sapphire Rapids zu testen, und um die Effizienzverbesserungen zu demonstrieren, testeten wir eine Mittelklasse-Plattform der 4. Generation mit zwei 8454Y (3,995 $) Xeons und verglichen sie mit einer Spitzenplattform der 3. Generation Duale 8380-CPUs (9,400 US-Dollar). Mit den neuen Verbesserungen der 4. Generation konnte unser Mittelklasse-System in Benchmarks mit dem Flaggschiffmodell der Vorgängergeneration mithalten.

Cinebench
2 x 4Y der 8452. Generation (2.0 GHz x 36) 2 x 3 der 8380. Generation (2.3 GHz x 40)
Multi-Core- 60075 70540
Single Core 841 985
Kernmultiplikator 71.40x 71.63x
Blender CLI-Render-Benchmark
2 x 4Y der 8452. Generation (2.0 GHz x 36) 2 x 3 der 8380. Generation (2.3 GHz x 40)
Monster 652.526942 671.145395
Trödelladen 401.119468 407.141514
Klassenzimmer 308.802541 320.507039
Total 1362.448951 1398.793948

Darüber hinaus haben wir in einem internen KI-Modell-Trainingstest eine Leistungssteigerung von ca. 5 Prozent festgestellt, nämlich 95 Minuten beim 3 der 8380. Generation gegenüber 90 Minuten beim 4Y der 8452. Generation. 

Insgesamt machen die Effizienzsteigerungen der skalierbaren Intel Xeon Prozessoren der 4. Generation sie zu einer attraktiven Option für Rechenzentrumsbetreiber, die ihren Stromverbrauch und ihre Kosten senken möchten. Die Allzweckprozessoren bieten ein hervorragendes Gleichgewicht zwischen Leistung und Effizienz und sind somit eine solide Wahl für ein breites Spektrum an Arbeitslasten. Wir freuen uns darauf, spezifische Beschleuniger für Rechenzentrums-Workloads zu testen, darunter den Data Storage Accelerator.

Auswirkungen auf den Markt

Bei Die skalierbaren Intel AMD Genoa-CPUs im Rechenzentrum. Obwohl Genua auf einem hohen Niveau ist, ist es wirklich einfach, einen Blick auf die enorme PCI-Lane-Anzahl zu werfen und es zum Sieger zu erklären. Doch die Auswahl der richtigen CPU ist heutzutage weitaus komplizierter. Bei zusätzlichen Komponenten im System besteht ein empfindliches Gleichgewicht zwischen Kosten, Energie, Leistung und Qualifikation. Oh, und vergessen wir nicht, wie wichtig es ist, die Arbeitslast zu verstehen, um sie auf die richtige CPU abzustimmen. 

Daher gibt es heute keine einfache Antwort auf die Frage, wer besser ist: Genua oder Sapphire Rapids. Es wird einige Zeit dauern, bis sich das bemerkbar macht, da Dell, HPE, Supermicro, Lenovo und andere Systeme auf den Markt bringen. Mit der Annahme neuer SSD-Formfaktoren was derzeit bei Servern passiert, Unterstützung für Gen5-Durchsatz und neue Hochgeschwindigkeitsnetzwerk- und Beschleunigeroptionen wie DPUs, Das Spiel ist im Gange. Dies ist jedoch kein Kampf der Datenblätter. Die Verantwortung liegt bei der IT-Organisation des Unternehmens, so gewissenhaft und informiert wie möglich vorzugehen, um sicherzustellen, dass sie in Systeme investiert, die ihre Anwendungsanforderungen angemessen unterstützen. Und das könnte die größte Herausforderung von allen sein. Bei so vielen Möglichkeiten sind anspruchsvolle IT-Partner heute möglicherweise wichtiger denn je.

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed