Anunciado en GTC y estar disponible como AIC en ISC, las GPU NVIDIA A100 ahora llegan a Google Cloud. Teniendo en cuenta que solo ha pasado aproximadamente un mes desde el anuncio inicial, este es un movimiento realmente rápido para una GPU a una nube pública importante. Google es la primera nube pública importante en presentar las GPU A100, o Ampere, en su familia de instancias Accelerator-Optimized VM (A2).
Anunciado en GTC y estar disponible como AIC en ISC, las GPU NVIDIA A100 ahora llegan a Google Cloud. Teniendo en cuenta que solo ha pasado aproximadamente un mes desde el anuncio inicial, este es un movimiento realmente rápido para una GPU a una nube pública importante. Google es la primera nube pública importante en presentar las GPU A100, o Ampere, en su familia de instancias Accelerator-Optimized VM (A2).
Como dijimos en el anuncio inicial, la primera GPU de 7nm de NVIDIA es la NVIDIA A100. El A100 se basa en la arquitectura Ampere de NVIDIA y contiene 54 mil millones de transistores. Al igual que las anteriores GPU de centros de datos de NVIDIA, la A100 incluye Tensor Cores. Los núcleos tensoriales son partes especializadas de la GPU diseñadas específicamente para realizar rápidamente un tipo de cálculo de multiplicación y suma de matrices que se usa comúnmente en la inferencia. Con nuevas GPU más robustas, vienen nuevos núcleos Tensor más robustos. Anteriormente, los Tensor Cores de NVIDIA solo podían admitir números de punto flotante de hasta treinta y dos bits. El A100 admite operaciones de coma flotante de sesenta y cuatro bits, lo que permite una precisión mucho mayor.
Varios casos de uso de la nube necesitan el tipo de potencia informática que las GPU pueden proporcionar, específicamente capacitación e inferencia de IA, análisis de datos, computación científica, genómica, análisis de video perimetral, servicios 5G, entre otros. Las nuevas GPU NVIDIA A100 pueden aumentar el rendimiento del entrenamiento y la inferencia 20 veces más que sus predecesoras, lo que las hace ideales para lo anterior.
Google Compute Engine aprovechará el A100 para múltiples usos, desde la ampliación de la capacitación en IA y la computación científica hasta la ampliación de las aplicaciones de inferencia y la habilitación de la IA conversacional en tiempo real. La nueva instancia, A2 VM, puede funcionar en cargas de trabajo de varios tamaños. La instancia funcionará en la capacitación e inferencia de aprendizaje automático habilitado por CUDA, análisis de datos y computación de alto rendimiento. Para las cargas de trabajo grandes, Google ofrece la instancia a2-megagpu-16g, que viene con 16 GPU A100, lo que ofrece un total de 640 GB de memoria GPU y 1.3 TB de memoria del sistema, todo conectado a través de NVSwitch con hasta 9.6 TB/s de agregado banda ancha. Para los clientes que no necesitan tanta potencia, también habrá máquinas virtuales A2 más pequeñas.
En un futuro cercano, Google Cloud implementará la compatibilidad con A100 para Google Kubernetes Engine, Cloud AI Platform y otros servicios de Google Cloud.
Interactuar con StorageReview
Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed