Durante il suo discorso al Computex, il presidente e CEO di AMD, la Dott.ssa Lisa Su, ha svelato importanti progressi nella famiglia di acceleratori AMD Instinct. La società ha annunciato una roadmap pluriennale ampliata per gli acceleratori, promettendo miglioramenti annuali nelle prestazioni dell’intelligenza artificiale e nelle capacità di memoria. Ciò segna una nuova era di innovazione per i carichi di lavoro di intelligenza artificiale e data center.
Durante il suo discorso al Computex, il presidente e CEO di AMD, la Dott.ssa Lisa Su, ha svelato importanti progressi nella famiglia di acceleratori AMD Instinct. La società ha annunciato una roadmap pluriennale ampliata per gli acceleratori, promettendo miglioramenti annuali nelle prestazioni dell’intelligenza artificiale e nelle capacità di memoria. Ciò segna una nuova era di innovazione per i carichi di lavoro di intelligenza artificiale e data center.
Presentazione dell'acceleratore AMD Instinct MI325X
La roadmap aggiornata prende il via con il nuovo acceleratore AMD Instinct MI325X, che sarà disponibile nel quarto trimestre del 4. Questo acceleratore presenta 2024 GB di memoria HBM288E e una larghezza di banda di memoria di 3 terabyte al secondo. Utilizza il design del server Universal Baseboard, garantendo la compatibilità con la serie AMD Instinct MI6.
L'MI325X vanta capacità di memoria e larghezza di banda leader del settore, superando la concorrenza rispettivamente di 2x e 1.3x. Offre prestazioni di elaborazione 1.3 volte migliori rispetto alla concorrenza, rendendolo uno strumento potente per i carichi di lavoro IA.
Generazioni future: serie MI350 e MI400
Dopo l'MI325X, il lancio della serie AMD Instinct MI350, basata sulla nuova architettura AMD CDNA 4, è previsto nel 2025. Questa serie porterà un salto sostanziale nelle prestazioni di inferenza AI, con proiezioni che indicano un aumento fino a 35 volte rispetto all'AMD. Serie Istinto MI300. L'acceleratore MI350X manterrà il design Universal Baseboard, utilizzerà la tecnologia di processo avanzata a 3 nm, supporterà i tipi di dati AI FP4 e FP6 e offrirà fino a 288 GB di memoria HBM3E.
Guardando più avanti, il rilascio della serie AMD Instinct MI400, basata sull'architettura AMD CDNA "Next", è previsto per il 2026. Questa serie introdurrà le più recenti funzionalità e capacità progettate per migliorare le prestazioni e l'efficienza per l'addestramento e l'inferenza IA su larga scala. compiti.
Adozione e impatto degli acceleratori AMD Instinct MI300X
Gli acceleratori AMD Instinct MI300X hanno visto una forte adozione da parte dei principali partner e clienti, tra cui Microsoft Azure, Meta, Dell Technologies, HPE, Lenovo e altri. Brad McCredie, vicepresidente aziendale di Data Center Accelerated Compute presso AMD, ha evidenziato le prestazioni eccezionali e la proposta di valore degli acceleratori MI300X, sottolineando il loro ruolo significativo nel guidare l'innovazione dell'intelligenza artificiale. Ha dichiarato: "Con la nostra cadenza annuale aggiornata di prodotti, siamo incessanti nel nostro ritmo di innovazione, fornendo le capacità di leadership e le prestazioni del settore dell'intelligenza artificiale, e i nostri clienti si aspettano di guidare la prossima evoluzione della formazione e dell'inferenza dell'intelligenza artificiale dei data center".
Progressi nell'ecosistema software AMD AI
Lo stack software aperto AMD ROCm 6 continua a maturare, consentendo agli acceleratori AMD Instinct MI300X di fornire prestazioni impressionanti per i più diffusi modelli di linguaggi di grandi dimensioni (LLM). Sui server che utilizzano otto acceleratori AMD Instinct MI300X e ROCm 6 con Meta Llama-3 70B, i clienti possono ottenere prestazioni di inferenza e generazione di token 1.3 volte migliori rispetto alla concorrenza.
Inoltre, un singolo acceleratore AMD Instinct MI300X con ROCm 6 può superare i concorrenti di 1.2 volte in termini di prestazioni di inferenza e throughput di generazione di token su Mistral-7B.
La collaborazione di AMD con Hugging Face, il più grande archivio di modelli IA, sottolinea ulteriormente la robustezza dell'ecosistema. Hugging Face testa ogni notte 700,000 dei modelli più popolari per garantire una funzionalità perfetta sugli acceleratori AMD Instinct MI300X. AMD sta inoltre continuando il suo lavoro a monte con i più diffusi framework AI come PyTorch, TensorFlow e JAX, garantendo un'ampia compatibilità e prestazioni migliorate.
Punti salienti della roadmap AMD
Durante il keynote, AMD ha svelato una cadenza annuale aggiornata per la roadmap dell'acceleratore AMD Instinct per soddisfare la crescente domanda di elaborazione AI. Ciò garantisce che gli acceleratori AMD Instinct continueranno a guidare lo sviluppo di modelli AI di frontiera di prossima generazione.
- Acceleratore AMD Instinct MI325X: Lanciato nel quarto trimestre del 4, questo acceleratore presenterà 2024 GB di memoria HBM288E, 3 terabyte al secondo di larghezza di banda di memoria e capacità di memoria e larghezza di banda leader del settore. Offre prestazioni di calcolo 6 volte migliori rispetto alla concorrenza.
- Serie AMD Instinct MI350: Previsto per il 2025, l'acceleratore MI350X sarà basato sull'architettura AMD CDNA 4 e utilizzerà la tecnologia di processo avanzata a 3 nm. Supporterà i tipi di dati AI FP4 e FP6 e includerà fino a 288 GB di memoria HBM3E.
- Serie AMD Instinct MI400: Prevista per il 2026, questa serie sfrutterà l'architettura AMD CDNA "Next", introducendo nuove funzionalità e capacità per migliorare l'addestramento dell'intelligenza artificiale e le prestazioni di inferenza.
Adozione diffusa nel settore
La domanda di acceleratori AMD Instinct MI300X continua a crescere, con numerosi partner e clienti che sfruttano questi acceleratori per i loro impegnativi carichi di lavoro AI.
- Microsoft Azure: Utilizzo degli acceleratori MI300X per i servizi Azure OpenAI e le nuove macchine virtuali Azure ND MI300X V5.
- Tecnologie Dell: Integrazione degli acceleratori MI300X in PowerEdge XE9680 per carichi di lavoro AI aziendali.
- Supermicro: Fornitura di molteplici soluzioni che incorporano acceleratori AMD Instinct.
- Lenovo: Potenziare l'innovazione dell'intelligenza artificiale ibrida con ThinkSystem SR685a V3.
- HPE: Utilizzo degli acceleratori MI300X per migliorare i carichi di lavoro AI in HPE Cray XD675.
L'introduzione da parte di AMD della roadmap ampliata dell'acceleratore Instinct al Computex 2024 segna una pietra miliare significativa nella strategia AI e data center dell'azienda. Con l’impegno per gli aggiornamenti annuali dei prodotti, il miglioramento delle prestazioni e un’ampia adozione nel settore, gli acceleratori AMD Instinct sono destinati a guidare la prossima generazione di innovazione AI.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed