Inicio EmpresaAI El superchip NVIDIA Grace Hopper domina los puntos de referencia de inferencia MLPerf

El superchip NVIDIA Grace Hopper domina los puntos de referencia de inferencia MLPerf

by Jordan Ranous

NVIDIA ha causado un gran revuelo en el mundo de la inteligencia artificial (IA) y la informática de alto rendimiento con su último lanzamiento: el superchip NVIDIA GH200 Grace Hopper. Esta oferta reciente ha mostrado un rendimiento sobresaliente en los puntos de referencia MLPerf, lo que demuestra la destreza de NVIDIA en la nube y la IA perimetral.

NVIDIA ha causado un gran revuelo en el mundo de la inteligencia artificial (IA) y la informática de alto rendimiento con su último lanzamiento: el superchip NVIDIA GH200 Grace Hopper. Esta oferta reciente ha mostrado un rendimiento sobresaliente en los puntos de referencia MLPerf, lo que demuestra la destreza de NVIDIA en la nube y la IA perimetral.

Súper chip NVIDIA Grace Hopper

Un superchip que dice mucho

El Superchip GH200 no es un chip cualquiera. Combina de forma única una GPU Hopper con una CPU Grace, lo que proporciona mayor memoria, ancho de banda y la capacidad de ajustar automáticamente la potencia entre la CPU y la GPU para lograr el máximo rendimiento. Esta integración innovadora permite que el chip logre un delicado equilibrio entre potencia y rendimiento, asegurando que las aplicaciones de IA obtengan los recursos que necesitan cuando los necesitan.

Resultados excepcionales de MLPerf

Los puntos de referencia de MLPerf son un estándar respetado en la industria y el GH200 de NVIDIA no decepcionó. El superchip no solo ejecutó todas las pruebas de inferencia del centro de datos, sino que también mostró la versatilidad de la plataforma de inteligencia artificial de NVIDIA, ampliando su alcance desde las operaciones en la nube hasta los bordes de la red.

Además, las GPU H100 de NVIDIA tampoco se quedaron atrás. Los sistemas HGX H100, equipados con ocho GPU H100, mostraron un rendimiento superior en todas las pruebas de MLPerf Inference. Esto resalta el inmenso potencial y capacidades de las GPU H100, especialmente para tareas como visión por computadora, reconocimiento de voz, imágenes médicas, sistemas de recomendación y modelos de lenguaje de gran tamaño (LLM).

TensorRT-LLM: amplificación del rendimiento de la inferencia

NVIDIA siempre ha estado a la vanguardia de la innovación continua y la TensorRT-LLM es un testimonio de este legado. Este software de IA generativa aumenta la inferencia y se presenta como una biblioteca de código abierto. Aunque no se envió a MLPerf a tiempo para la evaluación de agosto, es prometedor y permite a los usuarios amplificar el rendimiento de sus GPU H100 sin incurrir en costos adicionales. Socios como Meta, Cohere y Grammarly se han beneficiado de los esfuerzos de NVIDIA para mejorar la inferencia LLM, reafirmando la importancia de dichos desarrollos de software en el ámbito de la IA.

GPU L4: uniendo los servidores convencionales y el rendimiento

Con los últimos puntos de referencia de MLPerf, las GPU L4 han mostrado un rendimiento encomiable en una gran variedad de cargas de trabajo. Estas GPU, cuando se colocan en aceleradores compactos, han demostrado métricas de rendimiento hasta seis veces más eficientes que las CPU con índices de potencia más altos. La introducción de motores multimedia dedicados, en colaboración con el software CUDA, le da ventaja a la GPU L4, especialmente en tareas de visión por computadora.

Superando los límites: Edge Computing y más

Los avances no se limitan únicamente a la computación en la nube. El enfoque de NVIDIA en la computación de vanguardia es evidente con el sistema en módulo Jetson Orin, que presenta mejoras de rendimiento de hasta un 84% en comparación con sus versiones anteriores en detección de objetos.

MLPerf: un estándar de evaluación comparativa transparente

MLPerf sigue siendo un punto de referencia objetivo en el que confían los usuarios de todo el mundo para tomar decisiones de compra. La inclusión de gigantes de los servicios en la nube como Microsoft Azure y Oracle Cloud Infrastructure, junto con fabricantes de sistemas de renombre como Dell, Lenovo y Supermicro, subraya la importancia de MLPerf en la industria.

En conclusión, el reciente desempeño de NVIDIA en las pruebas MLPerf refuerza su posición de liderazgo en el sector de la IA. Con un amplio ecosistema, innovación continua de software y el compromiso de ofrecer un rendimiento de alta calidad, NVIDIA está dando forma al futuro de la IA.

Para obtener una inmersión técnica más profunda en los logros de NVIDIA, consulte el enlace blog técnico. Aquellos interesados ​​en replicar el éxito de las pruebas comparativas de NVIDIA pueden acceder al software desde Repositorio MLPerf y Centro de software NVIDIA NGC.

Interactuar con StorageReview 

Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed