Home Empreendimento A placa de rede Pensando Pollara 400 da AMD traz programabilidade e desempenho para redes de IA

A placa de rede Pensando Pollara 400 da AMD traz programabilidade e desempenho para redes de IA

by Haroldo Fritts

A AMD lança o Pensando Pollara 400, uma NIC de IA de 400 Gbps totalmente programável, projetada para otimizar a comunicação da GPU e acelerar cargas de trabalho de IA.

A AMD anunciou a disponibilidade do Pensando Pollara 400, o primeiro Cartão de Interface de Rede (NIC) para IA totalmente programável do setor. Projetada para acelerar cargas de trabalho de IA, esta solução inovadora é compatível com os padrões em desenvolvimento do Ultra Ethernet Consortium (UEC) e otimizada para aprimorar a comunicação entre GPUs em data centers. O Pollara 400 AI NIC representa um avanço significativo na construção de uma infraestrutura escalável e de alto desempenho para cargas de trabalho de IA/ML, IA generativa e modelos de linguagem de grande porte.

Pensando Pollara 400

À medida que a IA evolui, as organizações enfrentam o desafio de desenvolver infraestruturas de computação semelhantes que ofereçam desempenho ideal e flexibilidade para se adaptar às demandas futuras. Um fator crítico nessa evolução é o dimensionamento eficiente das redes de comunicação de GPU intra-nó. O compromisso da AMD em preservar a escolha do cliente e reduzir o custo total de propriedade (TCO) sem sacrificar o desempenho é evidente na placa de rede Pollara 400 AI. Esta solução capacita as organizações a criar uma infraestrutura de IA preparada para o futuro, mantendo a compatibilidade com um ecossistema aberto.

Acelerando cargas de trabalho de IA com redes avançadas

Maximizar o desempenho do cluster de IA é uma prioridade para provedores de serviços de nuvem, hiperescaladores e empresas. No entanto, muitas organizações veem a rede como um gargalo, restringindo a utilização da GPU. Embora a velocidade de transferência de dados seja essencial, ela só é benéfica quando a rede é otimizada para atender às demandas das cargas de trabalho de IA modernas.

Especificação Detalhes
Largura de banda máxima 400 Gbps
Fator de Forma Meia altura, meio comprimento (HHHL)
Interface Host PCIe Gen5.0 x16
Interface Ethernet QSFP112 (Serdas NRZ/PAM4)
Velocidades Ethernet 25/50/100/200/400 Gbps
Configurações Ethernet Suporta até 4 portas:
1 x 400G
2 x 200G
4 x 100G
4 x 50G
4 x 25G
Gestão de Sistemas MCTP sobre SMBus

A placa de rede de IA Pensando Pollara 400 aborda esses desafios oferecendo balanceamento de carga inteligente, gerenciamento de congestionamento, failover rápido e recuperação de perdas. Esses recursos garantem que os recursos de rede e computação sejam totalmente utilizados, permitindo maior tempo de atividade, conclusão mais rápida de tarefas e maior confiabilidade em escala. À medida que as cargas de trabalho de IA aumentam em complexidade e tamanho, a placa de rede de IA Pollara 400 fornece as ferramentas necessárias para eliminar gargalos e liberar todo o potencial da infraestrutura de IA.

Uma solução programável e preparada para o futuro

A placa de rede de IA Pollara 400 é alimentada pela arquitetura P4 da AMD, oferecendo um pipeline de hardware totalmente programável com flexibilidade incomparável. Essa programabilidade permite que os clientes se adaptem a novos padrões, como os definidos pela UEC, ou criem protocolos de transporte personalizados para suas cargas de trabalho específicas. Ao contrário do hardware tradicional, que necessita de novas gerações para suportar recursos emergentes, a Pollara 400 permite que as organizações atualizem sua infraestrutura de IA sem esperar por atualizações de hardware.

Os principais recursos do Pollara 400 incluem suporte a múltiplos protocolos de transporte, como RoCEv2, UEC RDMA e outros protocolos Ethernet, garantindo compatibilidade com diversas cargas de trabalho. Recursos avançados, como pulverização inteligente de pacotes, tratamento de pacotes fora de ordem e retransmissão seletiva, otimizam a utilização da largura de banda e reduzem a latência, fatores essenciais para o treinamento e a implantação de grandes modelos de IA. O controle de congestionamento com reconhecimento de caminho e a rápida detecção de falhas garantem um desempenho próximo à taxa de transmissão e minimizam o tempo ocioso da GPU, mesmo durante congestionamentos transitórios ou falhas de rede.

A vantagem do ecossistema aberto

A abordagem de ecossistema aberto da AMD garante compatibilidade independente de fornecedores, permitindo que as organizações estabeleçam uma infraestrutura de IA que atenda às demandas atuais, sendo escalável e programável para necessidades futuras. Essa estratégia reduz os gastos de capital (CapEx), eliminando a necessidade de estruturas de comutação de buffers grandes e dispendiosas baseadas em células, garantindo alto desempenho.

A placa de rede de IA Pensando Pollara 400 já foi validada em alguns dos maiores data centers escaláveis ​​do mundo. Provedores de Serviços de Nuvem (CSPs) escolheram esta solução por sua combinação única de programabilidade, alta largura de banda, baixa latência e amplo conjunto de recursos. Ao possibilitar uma infraestrutura extensível em um ecossistema aberto, a AMD auxilia as organizações a preparar seus ambientes de IA para o futuro, ao mesmo tempo em que oferece benefícios imediatos de desempenho.

AMD pensando

Envolva-se com a StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed