Startseite UnternehmenAI AMD Instinct Accelerator-Familie auf der Computex 2024 vorgestellt

AMD Instinct Accelerator-Familie auf der Computex 2024 vorgestellt

by Jordan Ranous

Während ihrer Keynote-Rede auf der Computex stellte Dr. Lisa Su, Vorsitzende und CEO von AMD, bedeutende Fortschritte in der AMD Instinct-Beschleunigerfamilie vor. Das Unternehmen kündigte eine erweiterte mehrjährige Roadmap für die Beschleuniger an, die jährliche Verbesserungen der KI-Leistung und der Speicherkapazitäten verspricht. Dies markiert eine neue Ära der Innovation für KI- und Rechenzentrums-Workloads.

Während ihrer Keynote-Rede auf der Computex stellte Dr. Lisa Su, Vorsitzende und CEO von AMD, bedeutende Fortschritte in der AMD Instinct-Beschleunigerfamilie vor. Das Unternehmen kündigte eine erweiterte mehrjährige Roadmap für die Beschleuniger an, die jährliche Verbesserungen der KI-Leistung und der Speicherkapazitäten verspricht. Dies markiert eine neue Ära der Innovation für KI- und Rechenzentrums-Workloads.

Wir stellen den AMD Instinct MI325X Accelerator vor

Die aktualisierte Roadmap beginnt mit dem neuen AMD Instinct MI325X-Beschleuniger, der im vierten Quartal 4 verfügbar sein soll. Dieser Beschleuniger verfügt über 2024 GB HBM288E-Speicher und eine Speicherbandbreite von 3 Terabyte pro Sekunde. Es nutzt das Universal Baseboard-Serverdesign und gewährleistet so die Kompatibilität mit der AMD Instinct MI6-Serie.

Der MI325X verfügt über branchenführende Speicherkapazität und Bandbreite und übertrifft die Konkurrenz um das Zweifache bzw. das 2-fache. Es bietet eine 1.3-mal bessere Rechenleistung als die Konkurrenz und ist damit ein leistungsstarkes Tool für KI-Workloads.

Zukünftige Generationen: Serien MI350 und MI400

Nach dem MI325X wird voraussichtlich im Jahr 350 die AMD Instinct MI4-Serie auf den Markt kommen, die auf der neuen AMD CDNA 2025-Architektur basiert. Diese Serie wird einen erheblichen Sprung in der KI-Inferenzleistung mit sich bringen, wobei Prognosen eine bis zu 35-fache Steigerung im Vergleich zu AMD erwarten lassen Instinct MI300-Serie. Der MI350X-Beschleuniger behält das Universal Baseboard-Design bei, nutzt fortschrittliche 3-nm-Prozesstechnologie, unterstützt FP4- und FP6-KI-Datentypen und verfügt über bis zu 288 GB HBM3E-Speicher.

Mit Blick auf die weitere Zukunft ist die Veröffentlichung der AMD Instinct MI400-Serie, die auf der AMD CDNA „Next“-Architektur basiert, für 2026 geplant. Diese Serie wird die neuesten Funktionen und Fähigkeiten vorstellen, die darauf ausgelegt sind, die Leistung und Effizienz für umfangreiches KI-Training und Inferenz zu verbessern Aufgaben.

Einführung und Wirkung von AMD Instinct MI300X-Beschleunigern

Die AMD Instinct MI300X-Beschleuniger werden von wichtigen Partnern und Kunden stark angenommen, darunter Microsoft Azure, Meta, Dell Technologies, HPE, Lenovo und andere. Brad McCredie, Corporate Vice President von Data Center Accelerated Compute bei AMD, hob die außergewöhnliche Leistung und das Wertversprechen der MI300X-Beschleuniger hervor und verwies auf deren bedeutende Rolle bei der Förderung von KI-Innovationen. Er erklärte: „Mit unserem aktualisierten jährlichen Produktrhythmus sind wir in unserem Innovationstempo unermüdlich und bieten die Führungsqualitäten und Leistung der KI-Branche, und unsere Kunden erwarten, die nächste Entwicklung des KI-Trainings und der Inferenz für Rechenzentren voranzutreiben.“

Fortschritte im AMD AI Software-Ökosystem

Der offene Software-Stack AMD ROCm 6 reift weiter und ermöglicht es den AMD Instinct MI300X-Beschleunigern, beeindruckende Leistung für beliebte Large Language Models (LLMs) zu liefern. Auf Servern mit acht AMD Instinct MI300X-Beschleunigern und ROCm 6 mit Meta Llama-3 70B können Kunden im Vergleich zur Konkurrenz eine 1.3-mal bessere Inferenzleistung und Token-Generierung erzielen.

Darüber hinaus kann ein einzelner AMD Instinct MI300X-Beschleuniger mit ROCm 6 die Konkurrenz um das 1.2-fache in Bezug auf Inferenzleistung und Token-Generierungsdurchsatz auf Mistral-7B übertreffen.

Die Zusammenarbeit von AMD mit Hugging Face, dem größten Repository für KI-Modelle, unterstreicht die Robustheit des Ökosystems zusätzlich. Hugging Face testet jeden Abend 700,000 seiner beliebtesten Modelle, um eine nahtlose Funktionalität auf AMD Instinct MI300X-Beschleunigern sicherzustellen. AMD setzt außerdem seine Upstream-Arbeit mit beliebten KI-Frameworks wie PyTorch, TensorFlow und JAX fort und sorgt so für umfassende Kompatibilität und verbesserte Leistung.

Wichtige Highlights der AMD-Roadmap

Während der Keynote stellte AMD einen aktualisierten jährlichen Rhythmus für die AMD Instinct Accelerator-Roadmap vor, um der wachsenden Nachfrage nach KI-Rechnern gerecht zu werden. Dadurch wird sichergestellt, dass AMD Instinct-Beschleuniger weiterhin die Entwicklung bahnbrechender KI-Modelle der nächsten Generation vorantreiben.

  • AMD Instinct MI325X Beschleuniger: Dieser Beschleuniger wird im vierten Quartal 4 auf den Markt kommen und über 2024 GB HBM288E-Speicher, 3 Terabyte pro Sekunde Speicherbandbreite sowie branchenführende Speicherkapazität und Bandbreite verfügen. Es bietet eine 6-mal bessere Rechenleistung als die Konkurrenz.
  • AMD Instinct MI350-Serie: Der im Jahr 2025 erwartete MI350X-Beschleuniger wird auf der AMD CDNA 4-Architektur basieren und fortschrittliche 3-nm-Prozesstechnologie nutzen. Es unterstützt die AI-Datentypen FP4 und FP6 und umfasst bis zu 288 GB HBM3E-Speicher.
  • AMD Instinct MI400-Serie: Diese für 2026 geplante Serie wird die AMD CDNA „Next“-Architektur nutzen und neue Funktionen und Fähigkeiten einführen, um die KI-Trainings- und Inferenzleistung zu verbessern.

Weit verbreitete Akzeptanz in der Industrie

Die Nachfrage nach AMD Instinct MI300X-Beschleunigern wächst weiter, und zahlreiche Partner und Kunden nutzen diese Beschleuniger für ihre anspruchsvollen KI-Workloads.

  • Microsoft Azure: Nutzung von MI300X-Beschleunigern für Azure OpenAI-Dienste und der neuen virtuellen Azure ND MI300X V5-Maschinen.
  • Dell Technologien: Integration von MI300X-Beschleunigern in den PowerEdge XE9680 für KI-Workloads in Unternehmen.
  • Supermicro: Bereitstellung mehrerer Lösungen mit AMD Instinct-Beschleunigern.
  • Lenovo: Hybrid-KI-Innovation mit dem ThinkSystem SR685a V3 vorantreiben.
  • HPE: Verwendung von MI300X-Beschleunigern zur Verbesserung der KI-Workloads im HPE Cray XD675.

Die Einführung der erweiterten Instinct-Beschleuniger-Roadmap durch AMD auf der Computex 2024 markiert einen bedeutenden Meilenstein in der KI- und Rechenzentrumsstrategie des Unternehmens. Mit der Verpflichtung zu jährlichen Produktaktualisierungen, verbesserter Leistung und breiter Branchenakzeptanz sind AMD Instinct-Beschleuniger bereit, die nächste Generation von KI-Innovationen voranzutreiben.

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed