Les géants du cloud comme AWS, Google et Azure créent du silicium personnalisé pour répondre à la demande d'IA, améliorant ainsi les performances, l'efficacité et le contrôle.
L'environnement cloud connaît actuellement une transformation profonde. Au cours de l'année écoulée, des acteurs de l'hyperscale, comme Amazon Web Services (AWS), Google Cloud et Microsoft Azure, ont considérablement augmenté leurs investissements dans le silicium sur mesure. Le nombre croissant d'entreprises d'IA entrant sur le marché des puces électroniques continue de croître.
Cette forte croissance du développement des puces transforme les centres de données, promettant de nouveaux niveaux de performance, d'efficacité et de différenciation. Là où les fabricants de puces classiques créent des processeurs et des accélérateurs grand public, ces nouveaux acteurs conçoivent des puces spécifiquement adaptées aux charges de travail exigeantes de l'IA.
Conception de puce
La motivation pour développer du silicium sur mesure découle de l'incapacité des processeurs et accélérateurs standard à répondre aux exigences des charges de travail cloud hyperscale. L'IA et le machine learning, en particulier, favorisent une densité de calcul plus élevée, une latence plus faible et des exigences d'efficacité énergétique accrues. Les hyperscalers réagissent en concevant des puces adaptées à leur infrastructure et aux besoins de leurs clients. De nouveaux acteurs arrivent sur le marché à un rythme croissant, proposant des processeurs et des accélérateurs présentés comme les plus rapides, les moins chers ou les meilleurs du secteur.
Bien sûr, ce phénomène n'est pas nouveau. Les fournisseurs de cloud développent depuis de nombreuses années du matériel réseau, des périphériques de stockage et des serveurs sur mesure. Cependant, la conception de processeurs est une autre affaire.
Qui sont les joueurs ?
Cette liste n'est pas exhaustive. Il s'agit actuellement des principaux acteurs du secteur. Nous avons également inclus de nouveaux fournisseurs, apportant leur touche personnelle à la prestation de services axée sur l'IA.
AWS
Maintenant dans sa quatrième génération, Graviton d'Amazon La série a donné le ton aux processeurs ARM dans le cloud, offrant des gains de performance par watt significatifs par rapport aux offres x86 traditionnelles. AWS a également déployé des accélérateurs d'IA personnalisés, tels que Inferentia et Trainium, ciblant les charges de travail d'inférence et de formation à grande échelle.
Selon le site web d'AWS, Anthropic a indiqué qu'AWS serait son principal partenaire de formation et utiliserait AWS Trainium pour former et déployer ses plus grands modèles de fondation. Amazon devrait également investir 4 milliards de dollars supplémentaires dans Anthropic.
Google, quant à lui, continue de repousser les limites avec ses unités de traitement tensoriel (TPU), qui alimentent désormais certains des plus grands modèles d'IA en production. Les dernières TPU v5 et Ironwood les architectures sont conçues pour un parallélisme massif et sont étroitement intégrées à la structure du centre de données de Google.
Azure
Microsoft n’est pas loin derrière, ayant récemment dévoilé ses puces d’IA personnalisées, Azure Maia et Azure Cobalt, optimisées pour l'IA et les charges de travail polyvalentes. Ces puces sont déjà déployées dans les centres de données de Microsoft, prenant en charge tous les aspects, des modèles de langage volumineux aux services cloud de base.
Les CSP ne sont pas seuls
Bien qu'ils ne soient pas nécessairement des fournisseurs de cloud, d'autres acteurs sont présents sur le marché du développement de puces. Ces entreprises sont également conscientes des avantages liés à la conception de puces : réduction des coûts, des performances, de la gestion et de la propriété.
Groq
Groq fournit une plateforme d'inférence d'IA centrée sur sa coutume Unité de traitement du langage (LPU) et une infrastructure cloud. Elle offre des performances élevées à faible coût pour les modèles d'IA courants.
Contrairement aux GPU conçus pour le graphisme, le LPU est optimisé pour l'inférence IA et les tâches de langage. Groq propose le LPU via GroqCloud™ et des solutions sur site plutôt que des puces individuelles.
Systèmes SambaNova
Systèmes SambaNova a créé une plateforme d'IA adaptée aux charges de travail complexes. Elle s'appuie sur le système DataScale® et des puces RDU (Reconfigurable Dataflow Unit) personnalisées, optimisées pour le calcul de flux de données.
L'entreprise propose des modèles de base pré-entraînés et la suite SambaNova, qui combine du matériel, des logiciels et des modèles pour permettre un déploiement rapide de l'IA, notamment dans les domaines de la finance et de la santé.
Cerebras
Cerebras est connu pour sa plateforme d'inférence et de formation en IA, qui comprend Moteur Wafer-Scale (WSE)Avec ses nombreux cœurs optimisés pour l'IA et sa mémoire intégrée, cette grande puce permet aux systèmes Cerebras de gérer des modèles complexes que le matériel traditionnel trouve difficiles.
Les organisations des domaines de la recherche médicale et de l'énergie utilisent les systèmes Cerebras pour les supercalculateurs sur site, tandis que les développeurs peuvent accéder à ses capacités via le Cerebras Cloud.
Tensorrent
Tensorrent développe des technologies d'IA avancées et du matériel informatique haute performance, sous la direction d'une équipe spécialisée en architecture informatique et en conception ASIC. Leur approche, proche de celle des TPU de Google, privilégie le matériel et les logiciels ouverts, et a attiré des investissements de personnalités comme Jeff Bezos.
Les cartes PCIe Blackhole™ de la société sont conçues pour un traitement IA évolutif, avec des cœurs RISC-V et de la mémoire GDDR6. Le modèle Blackhole p100a intègre le processeur Blackhole Tensix et est conçu pour les stations de travail de bureau.
Les avantages : performances, efficacité et contrôle
Le silicium sur mesure offre aux CSP et autres acteurs un ensemble de leviers robustes. Les fournisseurs peuvent optimiser leurs charges de travail, leurs architectures de centres de données et leurs contraintes d'alimentation et de refroidissement en concevant leurs puces en interne. Cela se traduit par un meilleur rapport qualité-prix, une meilleure efficacité énergétique et la possibilité d'offrir des services différenciés aux clients. D'un point de vue stratégique, la propriété de la pile de silicium réduit la dépendance aux fournisseurs tiers, atténue les risques liés à la chaîne d'approvisionnement et accélère les cycles d'innovation. Cette agilité constitue un avantage concurrentiel dans un monde où les modèles d'IA évoluent à une vitesse fulgurante.
La fabrication de puces n'est pas une mince affaire. Elle requiert une expertise approfondie en ingénierie, des investissements importants et une étroite collaboration avec les fonderies et les partenaires de conception. Les fournisseurs de services de communication investissent également massivement dans les piles logicielles, les compilateurs et les outils de développement afin de garantir l'accessibilité et la convivialité de leur matériel personnalisé. Les répercussions se font sentir dans l'ensemble du secteur. Les fabricants de puces traditionnels comme Intel, AMD et NVIDIA font face à une nouvelle concurrence, tandis que les startups et les fournisseurs de propriété intellectuelle trouvent de nouvelles opportunités de collaboration avec les fournisseurs de services de communication. Le mouvement du matériel open source, incarné par RISC-V, prend de l'ampleur, les fournisseurs recherchant des architectures plus flexibles et personnalisables.
L'avenir du silicium dans le cloud
Le rythme de l'innovation ne montre aucun signe de ralentissement. Avec l'évolution de l'IA, de l'analytique et de l'edge computing, les FSC et les hyperscalers devraient investir massivement dans du silicium sur mesure tout en se diversifiant dans de nouveaux domaines de réseau, de stockage et de sécurité. La prochaine génération d'infrastructures cloud sera façonnée autant par le matériel qu'elle contient que par les logiciels et services qui la surmontent.
Cette avancée offre davantage d'options, des performances améliorées et la possibilité de gérer des charges de travail auparavant considérées comme impossibles pour les entreprises et les développeurs. Pour l'industrie, cela marque le début d'une nouvelle ère où les plus grands fournisseurs de cloud deviennent également des concepteurs de puces parmi les plus influents.
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS