Home EmpreendimentoAI Do SLI ao NVLink: a evolução das tecnologias de jogos e multi-GPU e sua influência na IA

Do SLI ao NVLink: a evolução das tecnologias de jogos e multi-GPU e sua influência na IA

by Jordan Ranous
Resfriador de CPU HP Z8 Fury G5

O cenário das unidades de processamento gráfico (GPUs) passou por mudanças sísmicas nas últimas duas décadas, muito mais recentemente com o surgimento da IA. Uma parte significativa desta evolução tem sido o desenvolvimento de tecnologias que permitem que múltiplas GPUs funcionem em conjunto. A NVIDIA, pioneira no espaço de GPU, está na vanguarda desta revolução com duas tecnologias essenciais: Scalable Link Interface (SLI) e NVIDIA NV Link. Este artigo traça a jornada do SLI ao NVLink, destacando como a NVIDIA se adapta continuamente às demandas de computação em constante mudança.

O cenário das unidades de processamento gráfico (GPUs) passou por mudanças sísmicas nas últimas duas décadas, muito mais recentemente com o surgimento da IA. Uma parte significativa desta evolução tem sido o desenvolvimento de tecnologias que permitem que múltiplas GPUs funcionem em conjunto. A NVIDIA, pioneira no espaço de GPU, está na vanguarda desta revolução com duas tecnologias essenciais: Scalable Link Interface (SLI) e NVIDIA NV Link. Este artigo traça a jornada do SLI ao NVLink, destacando como a NVIDIA se adapta continuamente às demandas de computação em constante mudança.

O alvorecer do SLI

A NVIDIA lançou o SLI no início dos anos 2000, que foi originalmente desenvolvido pela 3dfx para a linha de placas Voodoo2, e foi a resposta da NVIDIA à crescente demanda por maior fidelidade gráfica em videogames e aplicativos de consumo. Basicamente, o SLI usa uma técnica conhecida como Alternate Frame Rendering (AFR) para dividir a carga de trabalho de renderização em várias GPUs. Cada placa desenharia todos os outros quadros ou até mesmo uma parte de cada quadro, efetivamente dobrando a potência gráfica. Embora revolucionário na época, o SLI tinha limitações, incluindo maior latência e falta de flexibilidade no compartilhamento de dados entre GPUs.

SLI x CrossFire: uma rivalidade em soluções multi-GPU

Embora o SLI da NVIDIA tenha definido o ritmo para configurações multi-GPU, não foi isento de concorrência. CrossFire da AMD era um rival direto, oferecendo recursos semelhantes para configurações multi-GPU. Assim como o SLI, o CrossFire teve como objetivo aumentar o desempenho gráfico por meio de técnicas como Alternate Frame Rendering (AFR) e Split Frame Rendering (SFR).

Crédito da imagem Dallas Moore

Crédito da imagem Dallas Moore

No entanto, o CrossFire tinha seu próprio conjunto de vantagens e desafios. Geralmente era mais flexível com as combinações de GPUs que podiam ser usadas, permitindo uma combinação de diferentes placas AMD. Por outro lado, o CrossFire foi frequentemente criticado por sua pilha de software, que alguns usuários consideraram menos confiável e mais complexa de configurar do que o SLI da NVIDIA. Apesar destas diferenças, ambas as tecnologias foram orientadas para o mesmo objectivo: melhorar os jogos e as experiências gráficas do consumidor. Suas limitações no tratamento de tarefas mais avançadas e com uso intensivo de dados acabariam abrindo caminho para soluções de próxima geração como o NVLink.

Com a chegada da década de 2010, o cenário da computação começou a mudar drasticamente. A ascensão da inteligência artificial (IA), da computação de alto desempenho (HPC) e da análise de big data exigiu soluções multi-GPU mais robustas. Tornou-se evidente que o SLI, inicialmente projetado tendo em mente as cargas de trabalho de jogos e de consumo, era insuficiente para essas tarefas computacionalmente intensivas. A NVIDIA precisava de um novo paradigma.

A era dos cartões Dual-GPU: uma abordagem única para a computação multi-GPU

Embora tecnologias como SLI e CrossFire se concentrassem na conexão de múltiplas GPUs discretas, havia outra abordagem menos comum para configurações multi-GPU: placas de GPU dupla. Essas placas gráficas especializadas abrigavam dois núcleos de GPU em uma única PCB (placa de circuito impresso), atuando efetivamente como uma configuração SLI ou CrossFire em uma única placa. Placas como NVIDIA GeForce GTX 690 e AMD Radeon HD 6990 foram exemplos populares dessa abordagem.

As placas Dual-GPU oferecem várias vantagens. Eles economizaram espaço condensando duas GPUs em um slot de placa, tornando-os atraentes para PCs de formato pequeno. Eles também simplificaram a configuração, eliminando a necessidade de vincular placas separadas a conectores externos. No entanto, esses cartões não estavam isentos de problemas. A dissipação de calor era um problema significativo, muitas vezes exigindo soluções avançadas de refrigeração. O consumo de energia também foi alto, exigindo fontes de alimentação robustas para estabilizar o sistema.

Curiosamente, as placas dual-GPU eram uma espécie de solução do “melhor dos dois mundos”, combinando o poder bruto das configurações multi-GPU com a simplicidade de uma única placa. No entanto, eram frequentemente vistos como um produto de nicho devido ao seu elevado custo e aos desafios técnicos associados. À medida que as tecnologias multi-GPU, como o NVLink, evoluíram para oferecer maior largura de banda e menor latência, a necessidade de placas com duas GPUs diminuiu. Ainda assim, eles continuam sendo um capítulo fascinante na história do desenvolvimento de GPUs.

A linha Tesla de GPUs da NVIDIA foi uma pedra angular na computação de nível empresarial, especialmente em data centers e clusters de computação de alto desempenho. Embora a maioria das GPUs Tesla sejam placas de GPU única projetadas para máximo desempenho e eficiência, houve exceções como o Tesla K80, que possui GPUs duplas em uma única placa. Essas placas Tesla multi-GPU foram otimizadas para cálculos altamente paralelos e foram essenciais em pesquisas científicas, aprendizado de máquina e análise de big data. Eles foram projetados para atender às demandas específicas dessas aplicações, oferecendo alto rendimento computacional, grandes capacidades de memória e recursos avançados como memória de código de correção de erros (ECC). Embora menos comuns do que suas contrapartes de GPU única, essas placas Tesla de GPU dupla apresentavam uma solução poderosa, embora de nicho, em computação empresarial.

O advento do NVLink

Entra em cena o NVLink, introduzido com a arquitetura Volta da NVIDIA em 2017. Essa tecnologia não foi apenas uma atualização, mas uma reformulação fundamental de como as GPUs poderiam ser interconectadas. O NVLink ofereceu largura de banda significativamente maior (até 900 GB/s com as versões mais recentes), menor latência e uma topologia de malha que permitiu interconexões mais complexas e numerosas entre GPUs. Além disso, o NVLink introduziu o conceito de memória unificada, permitindo o agrupamento de memória entre GPUs conectadas, um recurso crucial para tarefas que exigem grandes conjuntos de dados.

Evolução do desempenho do NVLink

Evolução do desempenho do NVLink

SLI x NVLink

À primeira vista, pode-se pensar no NVLink como “SLI com esteróides”, mas isso seria uma simplificação exagerada. Embora ambas as tecnologias visem conectar várias GPUs, o NVLink foi projetado tendo em mente um público diferente. Ele é criado para pesquisa científica, análise de dados e, principalmente, aplicações de IA e aprendizado de máquina. A maior largura de banda, menor latência e memória unificada tornam o NVLink uma solução muito mais flexível e poderosa para os desafios computacionais atuais.

Backbone técnico do NVLink

O NVLink representa uma evolução lógica na tecnologia de interconexão multi-GPU, não apenas em termos de velocidade, mas também em design arquitetônico. A estrutura do NVLink é composta por faixas de dados de alta velocidade que podem transferir dados bidirecionalmente. Ao contrário dos sistemas tradicionais baseados em barramento, o NVLink utiliza uma conexão ponto a ponto, reduzindo efetivamente os gargalos e melhorando o rendimento dos dados. As iterações mais recentes oferecem larguras de banda de até 900 GB/s, um aprimoramento significativo em relação aos recursos do SLI.

Interior HP Z8 Fury G5

HP Z8 Fury G5 com 4 GPUs A6000

Um dos principais recursos que diferenciam o NVLink é sua capacidade de suportar uma topologia mesh. Em contraste com as topologias em cadeia ou hub-and-spoke de tecnologias mais antigas, uma configuração de malha permite conexões mais versáteis e numerosas entre GPUs. Isso é particularmente útil em data centers e aplicações de computação de alto desempenho, onde rotas de dados complexas são a norma.

A memória unificada é outro recurso do NVLink. Isso permite que as GPUs compartilhem um pool de memória comum, possibilitando um compartilhamento de dados mais eficiente e reduzindo a necessidade de copiar dados entre GPUs. Este é um grande impulso para aplicações como aprendizado de máquina e análise de big data, onde grandes conjuntos de dados geralmente excedem a capacidade de memória de uma única GPU.

O NVLink também melhora a latência, um fator crucial em qualquer configuração de computação de alto desempenho. A latência mais baixa garante transferência de dados e sincronização mais rápidas entre GPUs, levando a cálculos paralelos mais eficientes. Isto é conseguido através dos recursos de acesso direto à memória (DMA) do NVLink, permitindo que as GPUs leiam e gravem diretamente na memória umas das outras sem envolver a CPU.

O impacto na IA e no aprendizado de máquina

Dada a crescente importância da IA ​​na computação moderna, as vantagens do NVLink não são apenas incrementais, mas transformadoras. No treinamento de modelos de IA e na criação de dados, o NVLink permite uma transferência de dados mais rápida entre GPUs, permitindo um processamento paralelo mais eficiente. Isto é especialmente benéfico ao trabalhar com grandes conjuntos de dados de treinamento, um assunto que se alinha estreitamente com o campo emergente de criação de dados de treinamento de modelos de IA.

Com as crescentes demandas de computação avançada, como simulações quânticas, análises em tempo real e algoritmos de IA de última geração, podemos esperar mais melhorias nas capacidades do NVLink. Quer se trate de um aumento na largura de banda ou de novos recursos que facilitam uma cooperação ainda maior entre GPUs, o NVLink ou seu sucessor permanecerá, sem dúvida, fundamental para atender às necessidades computacionais de amanhã.

A transição do SLI para o NVLink marca um marco significativo para as tecnologias multi-GPU. Ele reflete o compromisso da NVIDIA com a inovação e o profundo entendimento do cenário computacional em constante mudança. Dos jogos à IA, das aplicações de consumo aos centros de dados, as raízes do NVLink nos jogos e no SLI ilustram como a necessidade gera inovação, impulsionando a tecnologia num ciclo interminável de melhoria.

Envolva-se com a StorageReview 

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed