Inicio EmpresaAI Microsoft Ignite 2024: avances en silicio personalizado e infraestructura de IA

Microsoft Ignite 2024: avances en silicio personalizado e infraestructura de IA

by Divyansh Jain

Microsoft presentó varios desarrollos nuevos en diseño de chips personalizados e infraestructura de IA durante el evento Microsoft Ignite de esta semana, incluida la expansión de su cartera de silicio.

Microsoft anunció varios desarrollos clave en el diseño de chips personalizados y la infraestructura de IA en Ignite 2024. La empresa está ampliando su cartera de silicio con nuevos chips de seguridad y procesamiento de datos, al tiempo que mejora su asociación con NVIDIA para la computación de IA. Estas actualizaciones tienen como objetivo mejorar la eficiencia, la seguridad y el rendimiento en todos los servicios en la nube de Microsoft.

La revolución del silicio personalizado de Microsoft

Microsoft está ampliando significativamente su cartera de silicio personalizado más allá de los aceleradores de IA Azure Maia y las CPU Azure Cobalt. Han presentado Azure Integrated HSM, un chip de seguridad interno diseñado para mejorar la administración de claves sin comprometer el rendimiento. En 2025, Microsoft agregará el módulo de seguridad HSM en todos los nuevos servidores de centros de datos para proteger las cargas de trabajo confidenciales y de uso general.

Microsoft también presentó Azure Boost DPU, su primera unidad de procesamiento de datos. Este chip especializado maneja cargas de trabajo centradas en datos con una eficiencia excepcional. Los nuevos servidores con esta DPU reducirán el consumo de energía en dos tercios y tendrán un rendimiento cuatro veces mejor que los servidores actuales.

Infraestructura de refrigeración y energía

Microsoft ha presentado su rack “sidekick” de refrigeración líquida de próxima generación. Esta unidad de intercambiador de calor se puede adaptar a los centros de datos de Azure para admitir sistemas de IA a gran escala, incluida la infraestructura GB200 de NVIDIA. También han colaborado con Meta en un diseño de rack de energía desagregada que cuenta con energía de CC de 400 voltios, lo que permite hasta un 35 % más de aceleradores de IA en cada rack de servidor.

En un movimiento hacia el avance de toda la industria, Microsoft está haciendo público el código fuente de estas especificaciones de rack de energía y enfriamiento a través del Proyecto Open Compute, lo que permite que toda la industria se beneficie de estas innovaciones.

Infraestructura informática e inteligencia artificial de próxima generación

La infraestructura de IA de Azure continúa evolucionando con la introducción de la serie de máquinas virtuales ND H200 V5, que incluye las GPU H200 de NVIDIA. La plataforma ha demostrado mejoras de rendimiento notables, superando el estándar de evaluación comparativa de la industria por un factor de dos entre las GPU NVIDIA H100 y H200.

Microsoft también ha anunciado Azure ND GB200 v6, una nueva serie de máquinas virtuales optimizadas para IA que incorpora el diseño a escala de rack NVIDIA GB200 NVL 72 con redes Quantum InfiniBand. Este avance permite un rendimiento de supercomputación de IA a escala, conectando decenas de miles de GPU Blackwell.

Para la supercomputación basada en CPU, las nuevas máquinas virtuales Azure HBv5, impulsadas por procesadores AMD EPYC™ 9V64H personalizados, prometen un rendimiento hasta ocho veces más rápido que las alternativas actuales y estarán disponibles para vista previa en 2025.

Integración de NVIDIA y aplicaciones de contenedores de Azure

Azure Container Apps ahora es compatible con GPU NVIDIA, lo que permite una implementación de IA simplificada y escalable. Esta plataforma de contenedores sin servidor simplifica la implementación y la administración de aplicaciones basadas en microservicios al abstraer la infraestructura subyacente. Con facturación por segundo y capacidades de escalado a cero, los clientes pagan solo por el cómputo que utilizan, lo que garantiza un uso económico y eficiente de los recursos.

La plataforma NVIDIA AI en Azure incluye nuevos flujos de trabajo de referencia para IA industrial y NVIDIA Omniverse Blueprint para crear imágenes envolventes impulsadas por IA. Próximamente, se lanzará un flujo de trabajo de referencia para la supervisión remota en 3D de operaciones industriales, que permitirá a los desarrolladores conectar modelos 3D físicamente precisos de sistemas industriales con datos en tiempo real de Azure IoT Operations y Power BI.

PC con IA RTX y computación avanzada

NVIDIA anunció su nuevo SLM multimodal, NVIDIA Nemovision-4B Instruct, para comprender imágenes visuales en el mundo real y en la pantalla. Esta tecnología, que pronto se incorporará a las PC y estaciones de trabajo con inteligencia artificial RTX, mejorará las interacciones humanas digitales con mayor realismo.

Las actualizaciones de NVIDIA TensorRT Model Optimizer (ModelOpt) ahora ofrecen a los desarrolladores de Windows una ruta mejorada para optimizar los modelos para la implementación de ONNX Runtime. Esto permite a los desarrolladores crear modelos de IA para PC que son más rápidos y precisos cuando se aceleran con GPU RTX, al tiempo que facilitan la implementación en todo el ecosistema de PC con entornos de ejecución ONNX.

Más de 600 aplicaciones y juegos de Windows ejecutan IA localmente en más de 100 millones de PC con GeForce RTX AI en todo el mundo, lo que ofrece un rendimiento rápido, confiable y de baja latencia. La colaboración entre NVIDIA y Microsoft continúa impulsando la innovación en dispositivos informáticos personales, brindando sofisticadas capacidades de IA a los usuarios cotidianos.

Infraestructura híbrida y en la nube de Microsoft

El compromiso de Microsoft con las soluciones híbridas y multicloud se ejemplifica con Azure Arc, que ahora presta servicios a más de 39,000 clientes en todo el mundo. El nuevo Azure Local ofrece una infraestructura híbrida segura conectada a la nube con opciones flexibles, incluidos servidores GPU para inferencia de IA.

Microsoft también ha anunciado Windows Server 2025 y SQL Server 2025, que aprovechan Azure Arc para ofrecer capacidades de nube en entornos locales y en la nube. SQL Server 2025 se destaca por sus nuevas capacidades de IA integradas, que simplifican el desarrollo de aplicaciones de IA y patrones RAG con compatibilidad con vectores.

Conclusión

Las recientes innovaciones de Microsoft subrayan su dedicación a la promoción de soluciones de nube híbrida, infraestructura de IA y silicio personalizado. Con desarrollos innovadores como Azure Integrated HSM y Azure Boost DPU, Microsoft está estableciendo un nuevo modelo para operaciones de centros de datos seguras, eficientes y de alto rendimiento. La introducción de tecnologías de refrigeración y energía de última generación y las innovaciones de código abierto destacan el compromiso de Microsoft de fomentar la colaboración y la sostenibilidad en la industria.

La evolución de la infraestructura de computación e inteligencia artificial de Azure, incluidas las máquinas virtuales ND H200 V5 y ND GB200 v6, demuestra la capacidad de Microsoft para ofrecer un rendimiento de inteligencia artificial a gran escala. Mientras tanto, las nuevas máquinas virtuales HBv5 prometen rendimiento para la supercomputación basada en CPU, lo que garantiza que Azure siga siendo líder en computación de alto rendimiento.

Por último, con las sólidas capacidades híbridas de Azure Arc y la introducción de herramientas mejoradas con IA como SQL Server 2025, Microsoft está equipando a las empresas con soluciones flexibles y escalables para abordar las complejidades de las cargas de trabajo modernas. En conjunto, estos avances consolidan la posición de Microsoft como líder en el impulso del futuro de la IA, la nube y la infraestructura híbrida.

Interactuar con StorageReview

Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed