A NVIDIA deu início à sessão do GTC 2022 com uma palestra do CEO Jensen Huang, repleta de gráficos e animações impressionantes. A palestra tinha algo para todos. Os jogadores obtêm uma nova GPU GeForce RTX 40; renderização neural impressionante para jogos e aplicativos; NVIDIA Hopper entra em produção total; IA avançada de serviços em nuvem de modelo de linguagem grande; Serviços de Nuvem Omniverse; Sistemas de computação OVX; uma GPU para designers e criadores; automotivo obter DRIVE Thor; Jetson Orin Nano para IA de nível básico; e plataforma de computação IGX Edge AI.
A NVIDIA deu início à sessão do GTC 2022 com uma palestra do CEO Jensen Huang, repleta de gráficos e animações impressionantes. A palestra tinha algo para todos. Os jogadores obtêm uma nova GPU GeForce RTX 40; renderização neural impressionante para jogos e aplicativos; NVIDIA Hopper entra em produção total; IA avançada de serviços em nuvem de modelo de linguagem grande; Serviços de Nuvem Omniverse; Sistemas de computação OVX; uma GPU para designers e criadores; automotivo obter DRIVE Thor; Jetson Orin Nano para IA de nível básico; e plataforma de computação IGX Edge AI.
GeForce RTX 40
O primeiro na agenda foi o anúncio da próxima geração de GPUs da série GeForce RTX 40 com tecnologia ADA Lovelace, projetada para oferecer desempenho extremo para jogadores e criadores. O novo modelo principal, a GPU RTX 4090, tem até 4x o desempenho de seu antecessor.
A primeira GPU baseada na nova arquitetura NVIDIA Ada Lovelace, a RTX 40 Series oferece saltos em desempenho e eficiência e representa uma nova era de ray tracing em tempo real e renderização neural, que usa IA para gerar pixels. As GPUs da série RTX 40 apresentam uma variedade de novas inovações tecnológicas, incluindo:
- Multiprocessadores de streaming com até 83 teraflops de poder de sombreamento — 2x em relação à geração anterior.
- Núcleos RT de terceira geração com até 191 teraflops de rastreamento de raios efetivos — 2.8x em relação à geração anterior.
- Tensor Cores de quarta geração com até 1.32 Tensor petaflops — 5x em relação à geração anterior usando aceleração FP8.
- O Shader Execution Reordering (SER) melhora a eficiência da execução ao reprogramar as cargas de trabalho de sombreamento em tempo real para utilizar melhor os recursos da GPU. O SER melhora o desempenho do traçado de raios em até 3x e as taxas de quadros no jogo em até 25%.
- O Ada Optical Flow Accelerator com desempenho 2x mais rápido permite que o DLSS 3 preveja o movimento em uma cena, permitindo que a rede neural aumente as taxas de quadros enquanto mantém a qualidade da imagem.
- Melhorias arquitetônicas fortemente associadas à tecnologia de processo personalizada TSMC 4N resultam em um salto de até 2x na eficiência de energia.
- Codificadores NVIDIA duplos (NVENC) reduzem os tempos de exportação em até metade e apresentam suporte AV1. A codificação NVENC AV1 está sendo adotada pela OBS, Blackmagic Design, DaVinci Resolve, Discord e muito mais.
DLSS 3 gera frames inteiros para um jogo mais rápido
O próximo foi o NVIDIA DLSS 3, a próxima revolução na tecnologia de gráficos neurais Deep Learning Super Sampling da empresa para jogos e aplicativos criativos. A tecnologia alimentada por IA pode gerar quadros inteiros para jogabilidade extremamente rápida, superando as limitações de desempenho da CPU em jogos, permitindo que a GPU gere quadros inteiros de forma independente.
A tecnologia está chegando a mecanismos de jogos populares como Unity e Unreal Engine e recebeu suporte dos principais desenvolvedores de jogos, com mais de 35 jogos e aplicativos em breve.
GPU de núcleo tensor H100
A GPU Nvidia H100 Tensor Core está em plena produção e os parceiros estão planejando um lançamento em outubro para a primeira onda de produtos e serviços baseados na arquitetura NVIDIA Hopper.
O H100, anunciado em março, é construído com 80 bilhões de transistores e se beneficia de um novo e poderoso Transformer Engine e uma interconexão NVIDIA NVLink para acelerar os maiores modelos de IA, como sistemas avançados de recomendação e modelos de linguagem ampla, e para impulsionar inovações em áreas como IA conversacional e descoberta de drogas.
A GPU H100 é alimentada por várias inovações importantes na plataforma de data center de computação acelerada da NVIDIA, incluindo GPU multi-instância de segunda geração, computação confidencial, NVIDIA NVLink de quarta geração e instruções DPX.
Uma licença de cinco anos para o pacote de software NVIDIA AI Enterprise agora está incluída no H100 para servidores convencionais. Isso otimiza o desenvolvimento e a implantação de fluxos de trabalho de IA e garante que as organizações tenham acesso às estruturas e ferramentas de IA necessárias para criar chatbots de IA, mecanismos de recomendação, IA de visão e muito mais.
Chegando a uma plataforma perto de você
Para os clientes que desejam experimentar a nova tecnologia imediatamente, a NVIDIA anunciou que o H100 nos servidores Dell PowerEdge agora está disponível em Plataforma de lançamento NVIDIA, que oferece laboratórios práticos gratuitos, dando às empresas acesso ao hardware mais recente e ao software NVIDIA AI.
Os clientes também podem começar a encomendar os sistemas NVIDIA DGX H100, que incluem oito GPUs H100 e oferecem 32 petaflops de desempenho com precisão de FP8. Os softwares NVIDIA Base Command e NVIDIA AI Enterprise alimentam todos os sistemas DGX, permitindo implementações de um único nó para um NVIDIA DGX SuperPOD, suportando o desenvolvimento avançado de IA de grandes modelos de linguagem e outras cargas de trabalho massivas.
Os sistemas de construção de parceiros incluem Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo e Supermicro.
Além disso, algumas das principais instituições de ensino superior e pesquisa do mundo usarão o H100 para alimentar seus supercomputadores de próxima geração. Entre eles estão o Barcelona Supercomputing Center, o Los Alamos National Lab, o Swiss National Supercomputing Center (CSCS), o Texas Advanced Computing Center e a Universidade de Tsukuba.
H100 Chegando à Nuvem
Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure estarão entre os primeiros a implantar instâncias baseadas em H100 na nuvem a partir do próximo ano.
Serviços de IA em nuvem de modelo de linguagem grande da NVIDIA
O NVIDIA NeMo Large Language Model Service e o NVIDIA BioNeMo LLM Service, serviços de IA em nuvem de modelo de linguagem grande, foram anunciados. Este novo serviço LLM permite que os desenvolvedores adaptem facilmente os LLMs e implantem aplicativos personalizados de IA para geração de conteúdo, resumo de texto, chatbots, desenvolvimento de código, estrutura de proteínas e previsões de propriedades biomoleculares e muito mais.
O serviço NeMo LLM permite que os desenvolvedores adaptem rapidamente uma série de modelos de base pré-treinados usando um método de treinamento chamado aprendizado imediato na infraestrutura gerenciada pela NVIDIA. O serviço NVIDIA BioNeMo é uma interface de programação de aplicativos (API) em nuvem que expande os casos de uso do LLM além dos aplicativos científicos e de linguagem para acelerar a descoberta de medicamentos para empresas farmacêuticas e de biotecnologia.
Omniverse
NVIDIA Omniverse Cloud é a primeira oferta de software e infraestrutura como serviço da empresa. Omniverse é um conjunto de serviços em nuvem para artistas, desenvolvedores e equipes empresariais projetarem, publicarem, operarem e experimentarem aplicativos metaversos em qualquer lugar.
Usando o Omniverse Cloud, indivíduos e equipes podem experimentar com um clique a capacidade de projetar e colaborar em fluxos de trabalho 3D sem a necessidade de qualquer poder de computação local. Roboticistas podem treinar, simular, testar e implantar máquinas inteligentes habilitadas para IA com maior escalabilidade e acessibilidade. Os engenheiros de veículos autônomos podem gerar dados de sensores com base física e simular cenários de tráfego para testar várias condições de estrada e clima para implantação segura de direção autônoma.
Os primeiros apoiadores do Omniverse Cloud incluem RIMAC Group, WPP e Siemens.
Serviços de nuvem Omniverse
Os serviços Omniverse Cloud são executados no Omniverse Cloud Computer, um sistema de computação composto por NVIDIA OVX para simulação gráfica e física, NVIDIA HGX para cargas de trabalho avançadas de IA e NVIDIA Graphics Delivery Network (GDN), uma rede de data center distribuída em escala global para entrega gráficos metaversos de alto desempenho e baixa latência na borda.
Os serviços Omniverse Cloud incluem:
- Omniverse Nucleus Cloud — fornece aos designers e equipes 3D a liberdade de colaborar e acessar uma cena e dados 3D baseados em Universal Scene Description (USD) compartilhados. O Nucleus Cloud permite que qualquer designer, criador ou desenvolvedor salve alterações, compartilhe, faça edições ao vivo e visualize alterações em uma cena de praticamente qualquer lugar.
- Omniverse App Streaming — permite que usuários sem GPUs NVIDIA RTX™ transmitam aplicativos de referência Omniverse como Omniverse Create, um aplicativo para designers e criadores criarem mundos virtuais baseados em USD; Omniverse View, um aplicativo para revisões e aprovações; e NVIDIA Isaac Sim, para treinamento e teste de robôs.
- Omniverse Replicator — permite que pesquisadores, desenvolvedores e empresas gerem dados sintéticos 3D fisicamente precisos e criem facilmente ferramentas personalizadas de geração de dados sintéticos para acelerar o treinamento e a precisão das redes de percepção e integrar-se facilmente aos serviços de nuvem NVIDIA AI.
- Omniverse Farm — permite que usuários e empresas aproveitem várias instâncias de computação em nuvem para dimensionar tarefas do Omniverse, como renderização e geração de dados sintéticos.
- NVIDIA Isaac Sim — um aplicativo de simulação de robótica escalável e uma ferramenta de geração de dados sintéticos que capacita ambientes virtuais fotorrealistas e fisicamente precisos para desenvolver, testar e gerenciar robôs baseados em IA.
- NVIDIA DRIVE Sim — uma plataforma de simulação de ponta a ponta para executar simulações multissensor fisicamente precisas em larga escala para dar suporte ao desenvolvimento e validação de veículos autônomos, desde o conceito até a implantação, melhorando a produtividade do desenvolvedor e acelerando o tempo de lançamento no mercado.
Serviços de computação OVX
A NVIDIA anunciou a segunda geração do NVIDIA OVX, desenvolvido com a arquitetura de GPU NVIDIA Ada Lovelace e tecnologia de rede aprimorada, para fornecer gráficos em tempo real, IA e recursos de simulação de gêmeos digitais.
Os novos sistemas NVIDIA OVX são projetados para criar mundos virtuais 3D usando os principais aplicativos de software 3D e para operar simulações imersivas de gêmeos digitais no NVIDIA Omniverse Enterprise, uma plataforma escalável de ponta a ponta que permite que as empresas criem e operem aplicativos metaversos.
NVIDIA OVX é um sistema de computação projetado para alimentar gêmeos digitais Omniverse em grande escala. Ele será entregue a algumas das equipes de design e engenharia mais sofisticadas do mundo em empresas como BMW Group e Jaguar Land Rover.
Alimentando os novos sistemas OVX está a GPU NVIDIA L40, também baseada na arquitetura de GPU NVIDIA Ada Lovelace, que traz os mais altos níveis de potência e desempenho para a construção de gêmeos digitais industriais complexos.
Os núcleos RT de terceira geração da GPU L40 e os núcleos tensores de quarta geração fornecerão recursos poderosos para cargas de trabalho do Omniverse em execução no OVX, incluindo renderização acelerada de materiais rastreados por raios e traçados, simulações fisicamente precisas e geração de dados sintéticos 3D fotorrealistas. O L40 também estará disponível em servidores de sistemas certificados pela NVIDIA dos principais fornecedores OEM para alimentar cargas de trabalho RTX do data center.
A NVIDIA OVX também inclui o NVIDIA ConnectX-7 SmartNIC, fornecendo desempenho aprimorado de rede e armazenamento e a sincronização de tempo de precisão necessária para gêmeos digitais realistas. O ConnectX-7 inclui suporte para rede 200G em cada porta e criptografia rápida de dados em linha para acelerar a movimentação de dados e aumentar a segurança para gêmeos digitais.
GPU para estação de trabalho NVIDIA RTX 6000
A GPU NVIDIA RTX 6000 Ada Generation oferece renderização, gráficos e IA em tempo real. Designers e engenheiros podem conduzir fluxos de trabalho avançados baseados em simulação para criar e validar projetos mais sofisticados. Os artistas podem levar a narrativa para o próximo nível, criando conteúdo mais atraente e criando ambientes virtuais imersivos. Cientistas, pesquisadores e profissionais médicos podem acelerar o desenvolvimento de medicamentos e procedimentos que salvam vidas com poder de supercomputação em suas estações de trabalho. Tudo com até 2-4x o desempenho do RTX A6000 da geração anterior.
Projetado para gráficos neurais e simulação avançada de mundo virtual, o RTX 6000, com IA de geração Ada e tecnologia de shader programável, é a plataforma ideal para criar conteúdo e ferramentas para o metaverso com NVIDIA Omniverse Enterprise. O RTX 6000 permite que os usuários criem conteúdo detalhado, desenvolvam simulações complexas e formem os blocos de construção necessários para construir mundos virtuais atraentes e envolventes.
Tecnologia RTX de última geração
Alimentado pela arquitetura NVIDIA Ada, o NVIDIA RTX 6000 apresenta tecnologia NVIDIA RTX de última geração com recursos como:
- Núcleos RT de terceira geração: Até 2x a taxa de transferência da geração anterior com a capacidade de executar ray tracing simultaneamente com recursos de sombreamento ou redução de ruído.
- Núcleos tensores de quarta geração: Desempenho de treinamento de IA até 2x mais rápido do que a geração anterior com suporte expandido para o formato de dados FP8.
- Núcleos CUDA: até 2x a taxa de transferência de ponto flutuante de precisão única em comparação com a geração anterior.
- Memória GPU: Possui 48 GB de memória GDDR6 para trabalhar com os maiores modelos 3D, renderizar imagens, simulações e conjuntos de dados AI.
- Virtualização: oferecerá suporte ao software NVIDIA virtual GPU (vGPU) para várias instâncias de estação de trabalho virtual de alto desempenho, permitindo que usuários remotos compartilhem recursos e impulsionem cargas de trabalho de design, IA e computação de ponta.
- XR: apresenta 3x o desempenho de codificação de vídeo da geração anterior para streaming de várias sessões XR simultâneas usando NVIDIA CloudXR.
NVIDIA DRIVE Orin
A produção começa para o computador de veículo autônomo NVIDIA DRIVE Orin, apresentou novas montadoras adotando a plataforma NVIDIA DRIVE™ e revelou a próxima geração de sua arquitetura NVIDIA DRIVE Hyperion. A NVIDIA também anunciou que seu pipeline automotivo aumentou para mais de US$ 11 bilhões nos próximos seis anos, após uma série de vitórias de design com fabricantes de veículos de todo o mundo.
Mais de 25 fabricantes de veículos adotaram o sistema on-a-chip (SoC) NVIDIA DRIVE Orin. A partir deste ano, eles estão apresentando veículos definidos por software construídos na plataforma de computação centralizada de IA.
DRIVE Hyperion com NVIDIA Orin atua como o sistema nervoso central e o cérebro de IA para veículos de nova energia, oferecendo recursos de IA de ponta em constante aprimoramento, garantindo recursos de direção seguros e protegidos.
Também foi anunciada a próxima geração da arquitetura DRIVE Hyperion, construída no computador Atlan, para veículos a partir de 2026. A plataforma DRIVE Hyperion foi projetada para escalar entre gerações para que os clientes possam aproveitar os investimentos atuais para arquiteturas futuras.
A plataforma de próxima geração aumentará o desempenho para processamento de dados do sensor e estenderá os domínios operacionais da direção totalmente autônoma. O DRIVE Hyperion 9 contará com 14 câmeras, nove radares, três lidars e 20 ultrassônicos como parte de seu conjunto de sensores.
NVIDIA UNIDADE Thor
NVIDIA DRIVE Thor é o computador centralizado de próxima geração para veículos autônomos seguros e protegidos. DRIVE Thor atinge até 2,000 teraflops e unifica funções inteligentes, incluindo direção automatizada e assistida, estacionamento, monitoramento de motorista e ocupante, painel de instrumentos digital, infoentretenimento no veículo (IVI) e entretenimento no banco traseiro em uma única arquitetura para maior eficiência e menor custo geral do sistema.
O superchip de próxima geração vem com recursos de IA de ponta introduzidos pela primeira vez na arquitetura de GPU multi-instância NVIDIA Hopper, juntamente com a CPU NVIDIA Grace e a GPU NVIDIA Ada Lovelace. DRIVE Thor, com suporte MIG para gráficos e computação, permite que IVI e sistemas avançados de assistência ao driver executem isolamento de domínio, o que permite que processos simultâneos críticos sejam executados sem interrupção. Disponível para os modelos 2025 das montadoras, ele acelerará os roteiros de produção ao trazer maior desempenho e recursos avançados para o mercado na mesma linha do tempo.
NVIDIA Jetson Orin Nano
A NVIDIA anunciou a expansão da linha NVIDIA Jetson com o lançamento dos novos sistemas em módulos Jetson Orin Nano que oferecem até 80 vezes o desempenho em relação à geração anterior, estabelecendo um novo padrão para IA e robótica de nível básico.
A família NVIDIA Jetson agora abrange seis módulos de produção baseados em Orin que suportam uma gama completa de aplicativos de IA e robótica de ponta. Isso inclui o Orin Nano, fornecendo até 40 trilhões de operações por segundo (TOPS) de desempenho de IA no menor fator de forma Jetson, até o AGX Orin, fornecendo 275 TOPS para máquinas autônomas avançadas.
Jetson Orin apresenta uma GPU de arquitetura NVIDIA Ampere, CPUs baseadas em Arm, aprendizado profundo de última geração e aceleradores de visão, interfaces de alta velocidade, largura de banda de memória rápida e suporte a sensor multimodal. Esse desempenho e versatilidade permitem que mais clientes comercializem produtos que antes pareciam impossíveis, desde engenheiros implantando aplicativos de IA de ponta até desenvolvedores de sistemas operacionais robóticos (ROS) que constroem máquinas inteligentes de última geração.
IA NVIDIA IGX Edge
A plataforma NVIDIA IGX foi anunciada hoje. O IGX é usado para IA de ponta de alta precisão, trazendo segurança avançada e proteção proativa para setores sensíveis, como manufatura, logística e saúde. No passado, essas indústrias exigiam soluções caras e personalizadas para casos de uso específicos, mas a plataforma IGX é facilmente programável e configurável para atender a diferentes necessidades.
A IGX fornece uma camada adicional de segurança em fábricas e armazéns do mundo físico altamente regulamentados para fabricação e logística. Para casos de uso de IA de ponta médica, a IGX oferece inferência de IA segura e de baixa latência para atender à demanda clínica de percepções instantâneas de vários instrumentos e sensores para procedimentos médicos, como cirurgia assistida por robótica e monitoramento de pacientes.
Plataforma NVIDIA IGX — Garantindo conformidade em Edge AI
A plataforma NVIDIA IGX é uma poderosa combinação de hardware e software que inclui o NVIDIA IGX Orin, um supercomputador AI poderoso, compacto e com baixo consumo de energia para máquinas industriais autônomas e dispositivos médicos.
Os kits de desenvolvedor IGX Orin estarão disponíveis no início do próximo ano para que as empresas criem protótipos e testem produtos. Cada kit possui uma GPU e CPU integradas para computação AI de alto desempenho e um NVIDIA ConnectX-7 SmartNIC para oferecer rede de alto desempenho com latência ultrabaixa e segurança avançada.
Também está incluída uma poderosa pilha de software com recursos críticos de segurança e proteção que podem ser programados e configurados para diferentes casos de uso. Esses recursos permitem que as empresas adicionem segurança proativa a ambientes onde humanos e robôs trabalham lado a lado, como armazéns e salas de cirurgia.
A plataforma IGX pode executar o software NVIDIA AI Enterprise, otimizando o desenvolvimento e a implantação de fluxos de trabalho de IA e garantindo que as organizações tenham acesso às estruturas e ferramentas de IA necessárias. A NVIDIA também está trabalhando com parceiros de sistema operacional como Canonical, Red Hat e SUSE para trazer suporte full-stack de longo prazo para a plataforma.
Para o gerenciamento de IGX em ambientes industriais e médicos, o NVIDIA Fleet Command permite que as organizações implantem atualizações de sistema e software over-the-air seguras a partir de um console de nuvem central.
Clique no link para obter a história completa no Palestra GTC 2022.
Envolva-se com a StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed