Gigantes de la nube como AWS, Google y Azure están construyendo silicio personalizado para satisfacer la demanda de IA, impulsando el rendimiento, la eficiencia y el control.
El entorno de la nube está experimentando una transformación significativa. Durante el último año, empresas hiperescaladoras como Amazon Web Services (AWS), Google Cloud y Microsoft Azure han incrementado drásticamente sus inversiones en silicio personalizado. El número de empresas de IA que entran en el mercado de chips continúa en expansión.
Este auge en el desarrollo de chips está transformando el centro de datos, prometiendo nuevos niveles de rendimiento, eficiencia y diferenciación. Mientras que los fabricantes de chips tradicionales crean procesadores y aceleradores para el público general, estos nuevos actores diseñan chips específicamente para cargas de trabajo de IA exigentes.
Diseño de chips
La motivación para desarrollar silicio a medida surge de la incapacidad de las CPU y aceleradores estándar para satisfacer las demandas de las cargas de trabajo en la nube a hiperescala. La IA y el aprendizaje automático, en particular, impulsan una mayor densidad de cómputo, una menor latencia y mayores requisitos de eficiencia energética. Los hiperescaladores responden construyendo chips a la medida de su infraestructura y las necesidades de sus clientes. Nuevos actores entran al mercado a un ritmo creciente, con procesadores y aceleradores promocionados como los "más rápidos", "más económicos" o "los mejores" de la industria.
Por supuesto, este no es un fenómeno nuevo. Los proveedores de la nube llevan muchos años desarrollando hardware de red, dispositivos de almacenamiento y servidores personalizados. Sin embargo, la ingeniería de procesadores es un tema aparte.
¿Quiénes son los jugadores?
Esta no es una lista completa. Actualmente, estos son los principales actores en este campo. También hemos incluido nuevos proveedores que aportan su toque especial a la prestación de servicios basados en IA.
AWS
Ahora en su cuarta generación, Gravitón de Amazon La serie ha marcado el ritmo de las CPU basadas en Arm en la nube, ofreciendo importantes mejoras de rendimiento por vatio en comparación con las ofertas x86 tradicionales. AWS también ha implementado aceleradores de IA personalizados, como Inferencia y Trainium, apuntando a cargas de trabajo de inferencia y entrenamiento a escala.
Según el sitio web de AWS, Anthropic indicó que AWS sería su principal socio de capacitación y que utilizaría AWS Trainium para entrenar e implementar sus modelos base más importantes. Se dice que Amazon también invertirá 4 mil millones de dólares adicionales en Anthropic.
Mientras tanto, Google continúa expandiendo los límites con sus Unidades de Procesamiento Tensor (TPU), que ahora impulsan algunos de los modelos de IA más grandes en producción. La última TPU v5 de la compañía y Ironwood Las arquitecturas están diseñadas para un paralelismo masivo y están estrechamente integradas con la estructura del centro de datos de Google.
Azure
Microsoft no se queda atrás y recientemente ha presentado sus chips de inteligencia artificial personalizados. Azure Maia y Azure CobaltOptimizados para IA y cargas de trabajo de propósito general. Estos chips ya se están implementando en los centros de datos de Microsoft y son compatibles con todo tipo de sistemas, desde grandes modelos de lenguaje hasta servicios esenciales en la nube.
Los CSP no están solos
Aunque no son necesariamente proveedores de la nube, existen otros actores en el mercado del desarrollo de chips. Estas empresas también reconocen las ventajas de diseñar chips: menor coste, mejor rendimiento, mejor gestión y mejor propiedad.
Groq
Groq ofrece una plataforma de inferencia de IA centrada en sus necesidades personalizadas. Unidad de procesamiento del lenguaje (LPU) e infraestructura en la nube. Ofrece alto rendimiento a bajo costo para los modelos de IA más populares.
A diferencia de las GPU diseñadas para gráficos, la LPU está optimizada para la inferencia de IA y tareas de lenguaje. Groq ofrece la LPU a través de GroqCloud™ y soluciones locales, en lugar de chips individuales.
Sistemas SambaNova
Sistemas SambaNova Ha creado una plataforma de IA adaptada a cargas de trabajo complejas. Se centra en el sistema DataScale® y chips de Unidad de Flujo de Datos Reconfigurable (RDU) personalizados, optimizados para la computación de flujo de datos.
La empresa ofrece modelos básicos previamente entrenados y la Suite SambaNova, que combina hardware, software y modelos para permitir una rápida implementación de IA, particularmente en finanzas y atención médica.
Cerebras
Cerebras es conocido por su plataforma de inferencia y entrenamiento de IA, que incluye la Motor a escala de obleas (WSE)Con sus numerosos núcleos optimizados para IA y memoria integrada, este gran chip permite a los sistemas Cerebras gestionar modelos complejos que el hardware tradicional considera difíciles.
Las organizaciones en los campos de investigación médica y energía utilizan los sistemas Cerebras para supercomputadoras locales, mientras que los desarrolladores pueden acceder a sus capacidades a través de Cerebras Cloud.
Tentorrent
Tentorrent Desarrolla hardware avanzado de IA y computación de alto rendimiento, liderado por un equipo especializado en arquitectura informática y diseño de ASIC. Su enfoque se asemeja al de las TPU de Google, centrándose en hardware y software abiertos, y ha atraído inversiones de figuras como Jeff Bezos.
Las placas base PCIe Blackhole™ de la compañía están diseñadas para el procesamiento escalable de IA, con núcleos RISC-V y memoria GDDR6. El modelo Blackhole p100a incluye el procesador Blackhole Tensix y está diseñado para estaciones de trabajo de escritorio.
Los beneficios: rendimiento, eficiencia y control
El silicio personalizado ofrece a los proveedores de servicios de comunicaciones (CSP) y a otras empresas un sólido conjunto de herramientas. Los proveedores pueden optimizar sus cargas de trabajo, las arquitecturas de sus centros de datos y las limitaciones de energía y refrigeración mediante el diseño interno de chips. Esto se traduce en un mejor rendimiento por dólar, una mayor eficiencia energética y la capacidad de ofrecer servicios diferenciados a los clientes. Estratégicamente, poseer la pila de silicio reduce la dependencia de proveedores externos, mitiga los riesgos de la cadena de suministro y permite ciclos de innovación más rápidos. Esta agilidad constituye una ventaja competitiva en un mundo donde los modelos de IA evolucionan a la velocidad de la luz.
Desarrollar chips no es para los débiles. Requiere una profunda experiencia en ingeniería, una inversión de capital sustancial y una estrecha colaboración con fundiciones y socios de diseño. Los proveedores de servicios de comunicaciones (CSP) también invierten significativamente en pilas de software, compiladores y herramientas de desarrollo para garantizar que su hardware personalizado sea accesible y fácil de usar. El impacto se está sintiendo en toda la industria. Fabricantes de chips tradicionales como Intel, AMD y NVIDIA se enfrentan a una nueva competencia, mientras que las startups y los proveedores de propiedad intelectual encuentran nuevas oportunidades para colaborar con los CSP. El movimiento de hardware de código abierto, representado por RISC-V, está cobrando impulso a medida que los proveedores buscan arquitecturas más flexibles y personalizables.
El futuro del silicio en la nube
El ritmo de innovación no muestra signos de desaceleración. A medida que la IA, la analítica y la computación en el borde evolucionan, se espera que los proveedores de servicios de comunicaciones (CSP) y los hiperescaladores inviertan en silicio altamente personalizado, a la vez que se diversifican hacia nuevas áreas de redes, almacenamiento y seguridad. La próxima generación de infraestructura en la nube estará determinada tanto por el hardware que la integra como por el software y los servicios que la superponen.
Este avance ofrece más opciones, un rendimiento mejorado y la capacidad de gestionar cargas de trabajo que antes se consideraban imposibles para empresas y desarrolladores. Para la industria, esto marca el inicio de una nueva era en la que los mayores proveedores de nube también se convierten en algunos de los diseñadores de chips más influyentes.
Interactuar con StorageReview
Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed