Google describe una nueva infraestructura de centro de datos de IA con energía de +/-400 VCC y refrigeración líquida para manejar racks de 1 MW y cargas térmicas crecientes.
En los Cumbre OCP EMEA 2025Google realizó anuncios cruciales sobre la infraestructura física que sustenta los centros de datos modernos. El mensaje fue claro: a medida que las cargas de trabajo de IA escalan, también deben escalar las capacidades de los sistemas de energía, refrigeración y mecánicos.
El insaciable apetito de la IA por la energía ya no es una teoría. Google proyecta que, para 2030, las implementaciones de aprendizaje automático demandarán más de 500 kW por rack de TI. Este aumento se debe a la incesante búsqueda de mayores densidades de rack, donde cada milímetro está repleto de "xPU" (GPU, TPU, CPU) estrechamente interconectadas. Se requiere un cambio fundamental en la distribución de energía para cumplir con estos requisitos: soluciones de CC de mayor voltaje, con componentes de alimentación y baterías de respaldo fuera del rack. Y con este cambio llega una nueva palabra de moda en la industria.
La entrega de energía
El primer anuncio importante de Google revisó una década de progreso en el suministro de energía a centros de datos. Hace diez años, Google impulsó la transición a 48 VCC en los racks de TI, mejorando drásticamente la eficiencia de la distribución energética con respecto al estándar anterior de 12 VCC. La industria respondió ampliando la potencia de los racks de 10 kW a 100 kW. La transición de 48 voltios de corriente continua (VCC) a los nuevos +/-400 VCC permite que los racks de TI escalen de 100 kilovatios a 1 megavatio.
La Proyecto Monte Diablo, una colaboración entre Meta, Microsoft y la comunidad OCP, busca estandarizar las interfaces eléctricas y mecánicas a 400 VCC. Esta selección de voltaje no es arbitraria; aprovecha la robusta cadena de suministro diseñada para vehículos eléctricos, lo que permite economías de escala, una fabricación optimizada y una mejor calidad.
Suministro de energía de +/-400 VCC: bastidor de alimentación sidecar de CA a CC
El primer resultado tangible es un rack de alimentación CA-CC sidecar, que desacopla los componentes de alimentación del rack de TI. Esta arquitectura ofrece un aumento de aproximadamente el 3 % en la eficiencia integral y libera todo el rack para hardware de cómputo. De cara al futuro, Google y sus socios están explorando la distribución directa de CC de alto voltaje en todo el centro de datos, lo que promete una mayor densidad y eficiencia.
El desafío térmico
A medida que el consumo de energía de los chips se dispara —desde CPU de 100 W hasta aceleradores que superan los 1,000 W—, la gestión térmica se ha vuelto crucial. La industria ha respondido con una ola de innovación, pero el desafío es evidente: una mayor densidad de chips implica una mayor demanda de refrigeración.
La refrigeración líquida se ha convertido en la única solución viable a gran escala. Las propiedades térmicas del agua son inigualables: puede transportar aproximadamente 4,000 veces más calor por unidad de volumen que el aire, y su conductividad térmica es 30 veces mayor. Google ya ha implementado la refrigeración líquida a escala de gigavatios, dando soporte a más de 2,000 TPU Pods con un impresionante tiempo de actividad del 99.999 % en los últimos siete años. Los servidores refrigerados por líquido ocupan aproximadamente la mitad del volumen que sus homólogos refrigerados por aire, reemplazando los voluminosos disipadores térmicos por placas frías. Esto ha permitido a Google duplicar la densidad de chips y cuadriplicar la escala de sus supercomputadoras TPU v3 refrigeradas por líquido, en comparación con la generación TPU v2 refrigerada por aire.
Proyecto Deschutes CDU: 4.ª generación en implementación, 5.ª generación en concepto
De TPU v3 a TPU v5 y ahora IronwoodEl enfoque de Google ha evolucionado hacia el uso de unidades de distribución de refrigerante (CDU) en fila. Estas CDU aíslan el circuito de líquido del rack del circuito de las instalaciones, lo que proporciona un entorno de refrigeración controlado y de alto rendimiento. Project Deschutes, la arquitectura de CDU de Google, incorpora bombas e intercambiadores de calor redundantes, logrando una disponibilidad del 99.999 % desde 2020.
StorageReview ha seguido la evolución de la refrigeración líquida desde el principio, cubriendo innovadores como Genial TI, Sumergir, jetcool y Nómada DUG.
Acelerando la adopción en la industria
A finales de este año, Google contribuirá Proyecto Deschutes CDU Compartiremos con OCP detalles del sistema, especificaciones y mejores prácticas para acelerar la adopción de la refrigeración líquida a gran escala. La contribución incluirá orientación sobre diseño para mejorar el rendimiento de la refrigeración, la calidad de fabricación, la fiabilidad, la velocidad de implementación, la facilidad de mantenimiento, las mejores prácticas operativas e información sobre los avances en la cadena de suministro del ecosistema.
El rápido ritmo de innovación en hardware de IA exige que los centros de datos se preparen para la próxima ola de cambios. La transición de la industria hacia +/-400 VCC, impulsada por la especificación Mt. Diablo, supone un avance significativo. Google insta a la comunidad a adoptar el diseño de la CDU del Proyecto Deschutes y a aprovechar su amplia experiencia en refrigeración líquida para satisfacer las demandas de la infraestructura de IA del futuro.
Interactuar con StorageReview
Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed