A HPE atualiza sua infraestrutura de IA com servidores ProLiant, Private Cloud AI, Alletra SDK e suporte OpsRamp para GPUs RTX PRO 6000 Blackwell.
A HPE lançou uma série de atualizações em seu portfólio NVIDIA AI Computing by HPE. Essas melhorias foram projetadas para oferecer melhor suporte a todo o ciclo de vida do desenvolvimento de IA, desde a ingestão e treinamento de dados até a inferência em tempo real e o gerenciamento operacional. A HPE está se concentrando no ciclo de vida completo da IA na infraestrutura empresarial. Suas atualizações mais recentes refletem a ênfase em flexibilidade, escalabilidade e prontidão para desenvolvedores, começando com novos recursos na HPE Private Cloud AI.
Novos recursos na IA da nuvem privada da HPE visam reduzir o atrito dos desenvolvedores
Uma atualização central chega ao HPE Private Cloud AI, uma solução full-stack desenvolvida em colaboração com a NVIDIA. A plataforma permite que organizações executem IA generativa (GenAI) e cargas de trabalho agênticas no local ou em ambientes híbridos, e agora oferecerá suporte a atualizações do modelo de ramificação de recursos do NVIDIA AI Enterprise.
Isso significa que os desenvolvedores podem testar novas estruturas de IA, microsserviços e SDKs sem afetar modelos de produção estáveis, uma abordagem que reflete o que é comumente feito no desenvolvimento de software moderno. Ela oferece um ambiente mais seguro para experimentação, mantendo a robustez necessária para IA em escala empresarial.
O HPE Private Cloud AI também oferecerá suporte ao design validado pela NVIDIA Enterprise AI Factory. Esse alinhamento oferece às organizações um caminho mais claro para a criação de soluções de IA usando os designs de referência testados da NVIDIA, facilitando o dimensionamento confiável e consistente.
Novo SDK para Alletra Storage simplifica fluxos de trabalho de dados para IA da Agentic
A HPE também está lançando um novo kit de desenvolvimento de software (SDK) para seu sistema Alletra Storage MP X10000, projetado para funcionar com a Plataforma de Dados de IA da NVIDIA. Este SDK facilita a conexão da infraestrutura de dados das organizações às ferramentas de IA da NVIDIA.
O objetivo principal é ajudar a gerenciar dados não estruturados (por exemplo, documentos, imagens ou vídeos) que frequentemente precisam ser limpos e organizados antes de serem usados em projetos de IA. O SDK suporta tarefas como marcar dados com informações úteis, organizá-los para pesquisas mais rápidas e prepará-los para treinamento e inferência de modelos de IA.
Ele também usa a tecnologia RDMA (Remote Direct Memory Access) para acelerar as transferências de dados entre armazenamento e GPUs, o que ajuda a melhorar o desempenho ao lidar com grandes cargas de trabalho de IA.
Além disso, o design modular do Alletra X10000 permite que as organizações dimensionem o armazenamento e o desempenho separadamente, permitindo que ajustem sua configuração com base nas necessidades específicas do projeto. Ao combinar essas ferramentas, a HPE e a NVIDIA visam oferecer às organizações maneiras mais eficientes de acessar e processar dados, desde sistemas locais até ambientes baseados em nuvem.
Servidores HPE garantem posições de destaque em benchmarks de IA
O servidor ProLiant Compute DL380a Gen12 da HPE conquistou recentemente as primeiras posições em 10 benchmarks MLPerf Inference: Datacenter v5.0. Esses testes avaliaram o desempenho em vários modelos de IA exigentes, incluindo GPT-J para tarefas de linguagem, Llama2-70B para IA generativa em larga escala, ResNet50 para classificação de imagens e RetinaNet para detecção de objetos. O forte desempenho do benchmark reflete a configuração atual do servidor, que inclui GPUs NVIDIA H100 NVL, H200 NVL e L40S de alto desempenho.
HPE ProLiant Compute DL380a Gen12
Aproveitando esse impulso, a HPE planeja expandir os recursos do servidor oferecendo configurações com até 10 GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, a partir de 4 de junho. Espera-se que essa adição melhore ainda mais a adequação do servidor para aplicativos de IA empresarial, como inferência multimodal, IA baseada em simulação (frequentemente chamada de IA física), ajuste fino de modelos e fluxos de trabalho avançados de design ou mídia.
O DL380a Gen12 oferece duas opções de resfriamento para lidar com cargas de trabalho de alta demanda: resfriamento a ar tradicional e resfriamento líquido direto (DLC). A configuração DLC aproveita a longa experiência da HPE em gerenciamento térmico para ajudar a manter a estabilidade e o desempenho do sistema durante operações com uso intenso de computação.
O servidor inclui o mecanismo de gerenciamento Integrated Lights Out (iLO) 7 da HPE, incorporando proteções de segurança em nível de hardware usando a Root of Trust de Silício. É uma das primeiras plataformas de servidor projetadas com prontidão criptográfica pós-quântica e atende ao padrão FIPS 140-3 Nível 3 — uma certificação avançada para segurança criptográfica.
Na frente de gerenciamento, o HPE Compute Ops Management oferece ferramentas de ciclo de vida automatizadas que rastreiam a integridade do sistema, sinalizam possíveis problemas antecipadamente e fornecem insights sobre o uso de energia por meio de análises orientadas por IA.
Além do DL380a, a HPE também demonstrou solidez em toda a sua linha de servidores. O ProLiant Compute DL384 Gen12, equipado com GPUs NVIDIA GH200 NVL2 de dois soquetes, ficou em primeiro lugar em quatro testes MLPerf v5.0, incluindo em modelos de grande escala como Llama2-70B e Mixtral-8x7B. Já o HPE Cray XD670, com oito GPUs NVIDIA H8 SXM, liderou em 200 cenários de benchmark, abrangendo modelos de linguagem de grande porte e tarefas de IA baseadas em visão. Os sistemas HPE conquistaram o primeiro lugar em mais de 30 categorias de testes, oferecendo validação de terceiros para seus recursos de infraestrutura de IA.
OpsRamp expande para cobrir nova classe de GPU para observabilidade de infraestrutura
Do lado operacional, a HPE está expandindo o suporte ao seu software OpsRamp para gerenciar ambientes que utilizam as futuras GPUs NVIDIA RTX PRO 6000 Blackwell. Essa expansão permite que as equipes de TI mantenham a visibilidade de sua infraestrutura de IA, desde a utilização da GPU e cargas térmicas até o uso de memória e consumo de energia.
O software traz observabilidade full-stack para ambientes de IA híbrida e permite que as equipes automatizem respostas proativamente, otimizem o agendamento de tarefas e gerenciem a alocação de recursos com base em tendências históricas. Com o crescente investimento empresarial em IA, essas ferramentas de observabilidade e otimização estão se tornando importantes para a execução de implantações de IA confiáveis e econômicas.
Disponibilidade
Suporte de ramificação de recurso para NVIDIA AI Enterprise na Nuvem Privada HPE AI é esperado para o verão. SDK do HPE Alletra Storage MP X10000, incluindo suporte para acesso direto à memória para infraestrutura acelerada pela NVIDIA, também está programado para disponibilidade no verão de 2025. Servidor HPE ProLiant Compute DL380a Gen12, configurado com GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, estará disponível para encomenda a partir de 4 de junho de 2025. Software OpsRamp da HPE estará disponível em alinhamento com o lançamento do RTX PRO 6000 para dar suporte ao seu gerenciamento e otimização.
Com essas atualizações, certamente parece que a HPE está tomando medidas para fortalecer ainda mais seu portfólio de infraestrutura de IA, concentrando-se na criação de ambientes escaláveis e gerenciáveis que possam dar suporte a toda a gama de cargas de trabalho de IA sem complicar demais as operações.
Envolva-se com a StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed