I giganti del cloud come AWS, Google e Azure stanno sviluppando chip personalizzati per soddisfare la domanda di intelligenza artificiale, migliorando le prestazioni, l'efficienza e il controllo.
L'ambiente cloud sta attualmente vivendo una profonda trasformazione. Nell'ultimo anno, aziende hyperscaler come Amazon Web Services (AWS), Google Cloud e Microsoft Azure hanno aumentato drasticamente i loro investimenti in chip personalizzati. Il numero crescente di aziende di intelligenza artificiale che entrano nel mercato dei chip continua a crescere.
Questa impennata nello sviluppo di chip sta rimodellando i data center, promettendo nuovi livelli di prestazioni, efficienza e differenziazione. Laddove i tipici produttori di chip creano processori e acceleratori per le masse, questi nuovi attori progettano chip specificamente per i carichi di lavoro più impegnativi dell'intelligenza artificiale.
Progettazione di trucioli
La motivazione a sviluppare chip personalizzati deriva dall'incapacità delle CPU e degli acceleratori disponibili in commercio di tenere il passo con le esigenze dei carichi di lavoro cloud iperscalabili. In particolare, l'intelligenza artificiale e il machine learning favoriscono una maggiore densità di calcolo, una minore latenza e maggiori requisiti di efficienza energetica. Gli hyperscaler rispondono realizzando chip su misura per la propria infrastruttura e le esigenze dei clienti. Nuovi player entrano nel mercato a un ritmo crescente con processori e acceleratori pubblicizzati come i "più veloci", i "più economici" o i "migliori" che il settore possa offrire.
Naturalmente, questo non è un fenomeno nuovo. I provider di servizi cloud realizzano hardware di rete, dispositivi di storage e server personalizzati da molti anni. Tuttavia, progettare processori è tutta un'altra storia.
Chi sono i giocatori?
Questo non è un elenco completo. Al momento, questi sono i principali attori del settore. Abbiamo incluso anche nuovi fornitori, che apportano il loro tocco speciale all'erogazione di servizi basati sull'intelligenza artificiale.
AWS
Giunta ormai alla quarta generazione, Graviton di Amazon La serie ha dettato il passo per le CPU basate su ARM nel cloud, offrendo significativi miglioramenti delle prestazioni per watt rispetto alle tradizionali offerte x86. AWS ha anche implementato acceleratori di intelligenza artificiale personalizzati, come Inferentia e Trainium, mirando a carichi di lavoro di inferenza e formazione su larga scala.
Secondo il sito web di AWS, Anthropic ha indicato che AWS sarà il suo principale partner di formazione e utilizzerà AWS Trainium per addestrare e implementare i suoi principali modelli di base. Si dice inoltre che Amazon investirà altri 4 miliardi di dollari in Anthropic.
Google, nel frattempo, continua a spingersi oltre i limiti con le sue unità di elaborazione tensoriale (TPU), che ora alimentano alcuni dei più grandi modelli di intelligenza artificiale in produzione. L'ultima TPU v5 dell'azienda e Ironwood Le architetture sono progettate per un parallelismo massiccio e sono strettamente integrate con la struttura del data center di Google.
azzurro
Microsoft non è da meno, avendo recentemente svelato i suoi chip AI personalizzati, Azzurro Maia e Azzurro Cobalto, ottimizzati per l'intelligenza artificiale e carichi di lavoro generici. Questi chip sono già in uso nei data center Microsoft e supportano tutto, dai modelli linguistici di grandi dimensioni ai servizi cloud principali.
I CSP non sono soli
Sebbene non siano necessariamente fornitori di servizi cloud, altri attori sono presenti nel mercato dello sviluppo di chip. Anche queste aziende sono consapevoli dei vantaggi della progettazione di chip: costi inferiori, prestazioni, gestione e proprietà più semplici.
Groq
Groq fornisce una piattaforma di inferenza AI incentrata sulla sua personalizzazione Unità di elaborazione linguistica (LPU) e infrastruttura cloud. Offre prestazioni elevate a costi contenuti per i modelli di intelligenza artificiale più diffusi.
A differenza delle GPU progettate per la grafica, la LPU è ottimizzata per l'inferenza AI e le attività linguistiche. Groq offre la LPU tramite GroqCloud™ e soluzioni on-premise, anziché tramite chip individuali.
Sistemi SambaNova
Sistemi SambaNova ha creato una piattaforma di intelligenza artificiale su misura per carichi di lavoro complessi. È incentrata sul sistema DataScale® e su chip RDU (Reconfigurable Dataflow Unit) personalizzati, ottimizzati per l'elaborazione del flusso di dati.
L'azienda offre modelli di base pre-addestrati e la suite SambaNova, che combina hardware, software e modelli per consentire una rapida implementazione dell'intelligenza artificiale, in particolare nei settori della finanza e dell'assistenza sanitaria.
Cerebras
Cerebras è nota per la sua piattaforma di inferenza e formazione AI, che comprende Motore su scala wafer (WSE)Grazie ai suoi numerosi core ottimizzati per l'intelligenza artificiale e alla memoria integrata, questo chip di grandi dimensioni consente ai sistemi Cerebras di gestire modelli complessi che l'hardware tradizionale trova problematici.
Le organizzazioni che operano nei settori della ricerca medica e dell'energia utilizzano i sistemi Cerebras per i supercomputer on-premise, mentre gli sviluppatori possono accedere alle sue funzionalità tramite Cerebras Cloud.
Tentorrente
Tentorrente sta sviluppando hardware avanzato per l'intelligenza artificiale e il calcolo ad alte prestazioni, guidato da un team specializzato in architettura informatica e progettazione di ASIC. Il loro approccio ricorda le TPU di Google, concentrandosi su hardware e software aperti, e ha attirato investimenti da personaggi come Jeff Bezos.
Le schede madri PCIe Blackhole™ dell'azienda sono progettate per l'elaborazione scalabile dell'intelligenza artificiale, con core RISC-V e memoria GDDR6. Il modello Blackhole p100a include il processore Blackhole Tensix ed è progettato per le workstation desktop.
I vantaggi: prestazioni, efficienza e controllo
Il silicio personalizzato offre ai CSP e ad altri operatori un solido set di leve. I provider possono ottimizzare i propri carichi di lavoro, le architetture dei data center e i vincoli di alimentazione/raffreddamento progettando i chip internamente. Ciò si traduce in migliori prestazioni per dollaro, maggiore efficienza energetica e la possibilità di offrire servizi differenziati ai clienti. Strategicamente, possedere lo stack di silicio riduce la dipendenza da fornitori terzi, mitiga i rischi della supply chain e consente cicli di innovazione più rapidi. Questa agilità rappresenta un vantaggio competitivo in un mondo in cui i modelli di intelligenza artificiale si evolvono alla velocità della luce.
Costruire chip non è per i deboli di cuore. Richiede una profonda competenza ingegneristica, ingenti investimenti di capitale e una stretta collaborazione con fonderie e partner di progettazione. I CSP investono inoltre in modo significativo in stack software, compilatori e strumenti di sviluppo per garantire che il loro hardware personalizzato sia accessibile e intuitivo. Gli effetti a catena si stanno facendo sentire in tutto il settore. I produttori di chip tradizionali come Intel, AMD e NVIDIA si trovano ad affrontare una nuova concorrenza, mentre startup e fornitori di proprietà intellettuale trovano nuove opportunità di collaborazione con i CSP. Il movimento dell'hardware open source, esemplificato da RISC-V, sta guadagnando slancio con la ricerca di architetture più flessibili e personalizzabili da parte dei provider.
Il futuro del cloud silicon
Il tasso di innovazione non accenna a rallentare. Con l'evoluzione dell'intelligenza artificiale, dell'analisi e dell'edge computing, si prevede che i CSP e gli hyperscaler investiranno massicciamente in silicio personalizzato, espandendosi al contempo in nuove aree di networking, storage e sicurezza. La prossima generazione di infrastrutture cloud sarà plasmata tanto dall'hardware al suo interno quanto dal software e dai servizi integrati.
Questo progresso offre più opzioni, prestazioni migliorate e la capacità di gestire carichi di lavoro precedentemente ritenuti impossibili per aziende e sviluppatori. Per il settore, questo segna l'inizio di una nuova era in cui i maggiori fornitori di cloud diventano anche alcuni dei progettisti di chip più influenti.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed