Home EmpreendimentoAI Destaques do GTC 2025 da NVIDIA: GPUs Blackwell, sistemas DGX e AI-Q Framework

Destaques do GTC 2025 da NVIDIA: GPUs Blackwell, sistemas DGX e AI-Q Framework

by Divyansh Jain

O NVIDIA GTC 2025 revelou avanços inovadores em IA, incluindo GPUs Blackwell Ultra, AI-Q, Mission Control e DGX Spark.

A conferência GTC da NVIDIA destacou inúmeras inovações definidas para transformar o desenvolvimento de IA em vários setores e apresentou avanços em hardware, software e parcerias de IA. A joia da GTC 2025 foi, sem dúvida, revelar as GPUs de datacenter e seu roteiro. O acelerador de IA mais poderoso da NVIDIA em produção até o momento é o B300, construído na arquitetura Blackwell Ultra. Ele apresenta um aumento de 1.5x no desempenho em relação ao desempenho já líder do setor das GPUs Blackwell.

Quando comparado com as GPUs lançadas pela NVIDIA, os ganhos de desempenho são surpreendentes:

Especificação H100 H200 B100 B200 B300
Memória máxima 80 GB HBM3 141 GB HBM3e 192 GB HBM3e 192 GB HBM3e 288 GB HBM3e
Largura de banda de memória 3.35 TB / s 4.8 TB / s 8 TB / s 8 TB / s 8 TB / s
Núcleo Tensor FP4 - - 14 PFLOPS 18 PFLOPS 30 PFLOPS
Núcleo Tensor FP6 - - 7 PFLOPS 9 PFLOPS 15 PFLOPS*
Núcleo Tensor FP8 3958 TFLOPS (~4 PFLOPS) 3958 TFLOPS (~4 PFLOPS) 7 PFLOPS 9 PFLOPS 15 PFLOPS*
INT 8 Núcleo Tensor 3958 TOPS 3958 TOPS 7 POPs 9 POPs 15 PFLOPS*
Núcleo tensor FP16/BF16 1979 TFLOPS (~2 PFLOPS) 1979 TFLOPS (~2 PFLOPS) 3.5 PFLOPS 4.5 PFLOPS 7.5 PFLOPS*
Núcleo tensor TF32 989 TFLOPS 989 TFLOPS 1.8 PFLOPS 2.2 PFLOPS 3.3 PFLOPS*
FP32 (Denso) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Informação Desconhecida
Núcleo Tensor FP64 (Denso) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Informação Desconhecida
FP64 (Denso) 34 TFLOPS 34 TFLOPS 30 TFLOPS 40 TFLOPS Informação Desconhecida
Consumo Máximo de Energia 700W 700W 700W 1000W Informação Desconhecida

Nota: Os valores marcados com “*” são cálculos aproximados e não números oficiais da NVIDIA

O Blackwell Ultra B300, assim como seus equivalentes Blackwell, introduz novos formatos de precisão com FP4 Tensor Cores entregando impressionantes 30 PFLOPS e FP6/FP8 oferecendo 15 PFLOPS* de desempenho, comparado aos atuais H200s. Esta é uma melhoria aproximada de 7.5x ao comparar a computação FP8 com a FP4 e uma melhoria de quase 4x ao comparar o desempenho FP8.

O próximo no roteiro da NVIDIA é a GPU Vera Rubin, que está programada para ser lançada no ano que vem. Espera-se que a Vera Rubin ofereça 3.3x o desempenho do Blackwell Ultra, alcançando 50 PFLOPS de computação FP4 densa, acima dos 300 PFLOPS do B15. Ela será acompanhada pelas tecnologias ConnectX-9 e NVLink-6, dobrando a largura de banda das gerações anteriores. As GPUs Vera Rubin também contarão com memória HBM4, proporcionando um aumento de 1.6x na largura de banda da memória. A transição das CPUs Grace para Vera também aumentará significativamente a interconexão CPU-GPU, alcançando velocidades de até 1.8 TB/s.

A NVIDIA não se conteve, provocando suas GPUs Rubin Ultra, que devem ser lançadas no segundo semestre de 2027. As GPUs Rubin Ultra visam dobrar o desempenho da Vera Rubin, entregando impressionantes 100 PFLOPS de computação FP4 densa por GPU. A Rubin Ultra também será equipada com 1 TB de memória HBM4e avançada.

NVIDIA DGX Spark

A NVIDIA apresentou seu DGX Spark, um sistema introduzido sob o Projeto Dígitos apelido, na CES no início deste ano. Voltado para desenvolvedores de IA, pesquisadores, cientistas de dados e estudantes, o DGX Spark aproveita o novo chip GB10 Blackwell e é configurado com 128 GB de memória unificada.

A NVIDIA afirma que o sistema oferece extraordinários 1,000 TOPS de IA, o que colocaria o desempenho do Spark em um nível prático equivalente ao RTX 5070. A plataforma Spark também integra um ConnectX 7 SmartNIC, que equipa o Spark com 2 links de 200 Gb para agilizar a movimentação de dados. Parceiros OEM, incluindo ASUS, Dell, HPE e Lenovo, em breve oferecerão versões de marca. As reservas já estão abertas, com remessas programadas para começar em julho.

Estação NVIDIA DGX

A NVIDIA também apresentou o DGX Station atualizado, que se posiciona como o melhor supercomputador de IA de desktop para aplicações empresariais e é construído com o chip GB300 Grace Blackwell Ultra.

A DGX Station oferece 784 GB de memória de sistema unificada, ao mesmo tempo em que fornece 20 petaflops de desempenho denso de IA FP4. Isso integra o ConnectX 8 SuperNIC da NVIDIA diretamente no sistema, permitindo conectividade de rede de 800 Gb/s, garantindo que a rede de alto desempenho atenda às demandas de seus recursos de computação substanciais. Parceiros OEM como ASUS, Box, Dell, HPE, Lambda e Supermicro estão programados para construir sistemas DGX Station, com disponibilidade esperada para o final deste ano.

NVIDIA RTX Pro Blackwell

O trem da alegria da GPU não parou por aí. nvidia revelou sua série RTX Pro Blackwell, uma atualização abrangente de sua linha de GPU profissional projetada para acelerar cargas de trabalho de IA, gráficos e simulação em todas as plataformas. Esta nova geração abrange estações de trabalho de desktop, sistemas móveis e servidores, com o carro-chefe RTX Pro 6000 Blackwell apresentando 96 GB de memória de GPU líder do setor e fornecendo até 4,000 TOPS de desempenho de IA. Esses avanços permitem rastreamento de raios em tempo real, inferência rápida de IA e fluxos de trabalho gráficos avançados anteriormente inatingíveis em sistemas de desktop.

As inovações tecnológicas reunidas nessas GPUs são substanciais, incluindo o Streaming Multiprocessor da NVIDIA com rendimento 1.5x mais rápido, RT Cores de quarta geração que oferecem o dobro do desempenho das gerações anteriores e Tensor Cores de quinta geração que oferecem suporte à nova precisão FP4 para cargas de trabalho de IA. Melhorias adicionais incluem suporte a PCIe Gen 5 para largura de banda dobrada, compatibilidade com DisplayPort 2.1 para configurações de tela de resolução extrema e, na Server Edition, NVIDIA Confidential Computing para cargas de trabalho de IA seguras.

Profissionais da indústria relataram melhorias notáveis ​​de desempenho em aplicações do mundo real. A Foster + Partners obteve um ray-tracing 5x mais rápido do que a RTX A6000, enquanto a GE HealthCare encontrou uma melhoria de até 2x no tempo de processamento da GPU para algoritmos de reconstrução médica. A fabricante automotiva Rivian aproveitou as novas GPUs para uma qualidade visual VR sem precedentes em análises de design, e a SoftServe relatou um aumento de produtividade de 3x ao trabalhar com grandes modelos de IA como o Llama 3.3-70B. Talvez o mais impressionante seja que a Pixar observou que 99% de suas tomadas de produção agora cabem na memória de 96 GB de uma única GPU.

A RTX Pro 6000 Blackwell Server Edition leva esses recursos para ambientes de data center com um design resfriado passivamente para operação 24 horas por dia, 7 dias por semana. Esta variante focada em servidor oferece 5x maior rendimento de inferência de modelo de linguagem grande, sequenciamento genômico 7x mais rápido, acelerações de 3.3x para geração de texto para vídeo e melhorias de 2x na inferência e renderização de sistemas de recomendação em comparação com o hardware da geração anterior. Pela primeira vez, essas GPUs habilitam a tecnologia vGPU e Multi-Instance GPU (MIG), que permite que cada placa seja particionada em até quatro instâncias totalmente isoladas, maximizando a utilização de recursos para diversas cargas de trabalho. As versões para desktop dessas GPUs devem chegar ao mercado em abril, com as versões para servidores em maio e laptops baseados em OEM em junho.

Fotônica NVIDIA

NVIDIA Photonics, um conjunto de inovações para transformar redes ópticas dentro de data centers de IA, completou os anúncios de hardware. Ao substituir transceptores plugáveis ​​tradicionais por mecanismos ópticos co-empacotados localizados no mesmo pacote que o ASIC do switch, a NVIDIA Photonics minimiza o consumo de energia e otimiza a conectividade de dados.

Utilizando as otimizações do mecanismo fotônico da TSMC e complementado por moduladores de microanel, lasers de alta eficiência e conectores de fibra destacáveis, a nova plataforma Photonics foi projetada para fornecer até 3.5x mais eficiência, 10x mais resiliência e atingir velocidades de implantação 1.3x mais rápidas do que as soluções convencionais. Ao demonstrar sua abordagem de ecossistema mais ampla, a NVIDIA detalhou como suas parcerias com líderes avançados em embalagens e fabricação de componentes ópticos são essenciais para atingir esses ganhos de desempenho.

Com estes novos desenvolvimentos, NA VIDIA apresentou três novos switches com o 200G SerDes nas famílias de switches Quantum-X e Spectrum-X. A linha Quantum-X Infiniband inclui o Quantum 3450-LD, que apresenta impressionantes 144 portas de 800G ou 576 portas de 200G, fornecendo 115 Tb/s de largura de banda. Nos switches Ethernet Spectrum-X, o portfólio varia do mais compacto Spectrum SN6810, oferecendo 128 portas de 800G ou 512 portas de 200G, ao Spectrum SN6800 de alta densidade, ostentando 512 portas de 800G e 2048 portas de 200G. Todos esses switches apresentam tecnologia de resfriamento líquido para manter desempenho e eficiência ideais.

Espera-se que os switches NVIDIA Quantum-X Photonics InfiniBand estejam disponíveis ainda este ano, e os switches NVIDIA Spectrum-X Photonics Ethernet estarão disponíveis em 2026 pelos principais fornecedores de infraestrutura e sistemas.

Unindo hardware e software com Nvidia Dynamo

Os anúncios da NVIDIA eram partes iguais de software e hardware. Para aproveitar totalmente o poder computacional das novas GPUs Blackwell, a NVIDIA apresentou o Dynamo, um software de inferência de IA projetado especificamente para servir modelos de IA em escala.

O NVIDIA Dynamo é uma plataforma de inferência de código aberto projetada para otimizar a implantação de modelos de IA em larga escala em data centers inteiros. A arquitetura exclusiva distribuída e desagregada do Dynamo permite que ele dimensione uma única consulta em muitas GPUs, acelerando drasticamente as cargas de trabalho de inferência. Ao dividir de forma inteligente as tarefas de processamento entre a computação de token de entrada e os tokens de saída e aproveitar os pontos fortes da interconexão NVLink da NVIDIA, ele obtém melhorias de desempenho de até 30x para modelos intensivos em raciocínio, como o DeepSeek R1.

Notavelmente, o Dynamo até mesmo dobra o rendimento de LLMs existentes, como LLAMA, em GPUs Hopper sem hardware adicional, efetivamente dobrando a geração de tokens e o potencial de receita para fábricas de IA. Com o Dynamo, a NVIDIA está trazendo otimizações de nível de hiperescala para todos e tornando-as disponíveis, permitindo que todos capitalizem totalmente o potencial transformador da IA.

O Dynamo está disponível hoje no GitHub e oferece suporte a backends populares, incluindo PyTorch, BLM, SGLang e TensorRT.

Nvidia AI-Q: A próxima geração de sistemas de IA Agentic

A NVIDIA também introduziu o AI-Q, pronunciado “IQ”, um projeto para conectar agentes de IA perfeitamente a dados e ferramentas empresariais de larga escala. Essa estrutura de código aberto permite que agentes consultem e raciocinem em vários tipos de dados, incluindo texto, imagens e vídeo, e aproveitem ferramentas externas, como pesquisa na web e outros agentes. 

No centro do AI-Q está o novo kit de ferramentas NVIDIA AgentIQ, uma biblioteca de software de código aberto lançada hoje no GitHub. O AgentIQ facilita a conexão, a criação de perfil e a otimização de sistemas multiagentes, permitindo que as empresas criem forças de trabalho digitais sofisticadas. O AgentIQ se integra perfeitamente com estruturas multiagentes existentes, incluindo CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service e Letta, permitindo que os desenvolvedores o adotem incrementalmente ou como uma solução completa. 

A NVIDIA também está colaborando com os principais provedores de armazenamento de dados para criar uma arquitetura de referência de plataforma de dados de IA que integra NVIDIA NeMo Retriever, AI-Q Blueprint, GPUs Blackwell, rede Spectrum X e DPUs Bluefield. Para garantir processamento de dados quase em tempo real e recuperação rápida de conhecimento, capacitando agentes de IA com inteligência empresarial essencial.

O AI-Q estará disponível para desenvolvedores experimentarem a partir de abril.

NVIDIA Mission Control: orquestrando a fábrica de IA

Com base em sua estratégia de software abrangente, a NVIDIA revelou o Mission Control, a única plataforma de software unificada de operações e orquestração do setor, projetada para automatizar o gerenciamento complexo de data centers e cargas de trabalho de IA. Enquanto o Dynamo otimiza a inferência e o AI-Q habilita sistemas de agente, o Mission Control aborda a camada de infraestrutura crítica que sustenta todo o pipeline de IA.

O Mission Control transforma a maneira como as empresas implantam e gerenciam a infraestrutura de IA, automatizando o gerenciamento de ponta a ponta, incluindo provisionamento, monitoramento e diagnóstico de erros. A plataforma permite transições perfeitas entre cargas de trabalho de treinamento e inferência em sistemas baseados em Blackwell, permitindo que as organizações realoquem recursos de cluster conforme as prioridades mudam dinamicamente. Incorporando a tecnologia Run:ai adquirida pela NVIDIA, o Mission Control aumenta a utilização da infraestrutura em até 5x, ao mesmo tempo em que oferece recuperação de trabalho até 10x mais rápida do que os métodos tradicionais que exigem intervenção manual.

O software fornece várias vantagens operacionais críticas para cargas de trabalho de IA modernas, incluindo configuração de cluster simplificada, orquestração de carga de trabalho perfeita para fluxos de trabalho SUNK (Slurm e Kubernetes), perfis de energia otimizados para energia com controles selecionáveis ​​pelo desenvolvedor e recursos de recuperação de trabalho autônomos. Recursos adicionais incluem painéis de desempenho personalizáveis, verificações de integridade sob demanda e integração do sistema de gerenciamento de edifícios para resfriamento aprimorado e gerenciamento de energia.

Os principais fabricantes de sistemas, incluindo Dell, HPE, Lenovo e Supermicro, anunciaram planos para oferecer sistemas NVIDIA GB200 NVL72 e GB300 NVL72 equipados com Mission Control. A Dell incorporará o software em sua AI Factory com NVIDIA, enquanto a HPE o oferecerá com seus sistemas de rack-scale Grace Blackwell. A Lenovo planeja atualizar suas soluções Hybrid AI Advantage para incluir o Mission Control, e a Supermicro o integrará em seus sistemas Supercluster.

O NVIDIA Mission Control já está disponível para os sistemas DGX GB200 e DGX B200, com suporte para os sistemas DGX GB300, DGX B300 e GB300 NVL72 previsto para o final deste ano. Para organizações que buscam começar a gerenciar a infraestrutura de IA, a NVIDIA também anunciou que o software Base Command Manager em breve será gratuito para até oito aceleradores por sistema, independentemente do tamanho do cluster.

Conclusão

O GTC 2025 da NVIDIA preparou o cenário para um salto transformador na tecnologia de IA, revelando avanços inovadores em hardware, software e infraestrutura. Das poderosas GPUs B300 construídas na arquitetura Blackwell Ultra aos revolucionários sistemas DGX Spark e DGX Station, a NVIDIA continua a redefinir o que é possível na computação de IA. A introdução do NVIDIA Photonics, software de inferência Dynamo, frameworks de agentes AI-Q e plataforma de orquestração Mission Control ajudará as empresas a chegar ao mercado mais rápido e escalar com mais eficiência e, sem dúvida, está indo mais longe para consolidar a NVIDIA como líder neste espaço.

No entanto, isso é apenas a ponta do iceberg. Há muito mais inovação e insights para explorar na GTC. Fique ligado e assista aos nossos outros artigos de notícias desta semana, enquanto continuamos a trazer os últimos anúncios e mergulhos profundos no futuro emocionante da NVIDIA.

Envolva-se com a StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed