Proxmox Server Solutions は最近、仮想環境 (VE) ハイパーバイザー向けの NVIDIA vGPU サポートを発表しました。これにより、レンダリング、VDI、AI、およびその他のアプリケーション向けの GPU アクセラレーションのまったく新しい世界が実現します。ハイパーバイザーの新機能セットをレビューして説明し、そのパフォーマンスを評価します。ぜひご参加ください。
vGPU サポートの何がすごいのでしょうか?
NVIDIA の vGPU ソフトウェアについてご存じない方のために説明すると、このソフトウェアは GPU のコンピューティング リソースとメモリ リソースを複数の仮想マシン (VM) に分割して分散することを可能にします。この設定では、VM は GPU の処理能力を交互に使用し、必要に応じてカードのメモリの一部を割り当てます。このアプローチにより、ゲスト VM のワークロードの強度が変化しても、GPU はピーク使用率を維持できます。
始める前に…(前提条件)
Proxmox VE (PVE)でGPU仮想化環境を立ち上げる前に、いくつか準備が必要です。多くのデータセンターの製品と同様に、NVIDIAのvGPUソフトウェアは無料ではありません。 購入 or 評価版にサインアップする 仮想GPUソフトウェアを購入してNVIDIAエンタープライズアカウントを作成します。次に、 vGPU対応カード 適切なドライバーをダウンロードしてください ライセンスポータル「Linux KVM」ドライバーの最新バージョンを入手します。少なくとも、次のものをダウンロードしてください。
- vGPU ソフトウェア: 18.0
- ホストドライバー: 570.124.03
- Linux ゲスト ドライバー: 570.124.06
- Windows ゲスト ドライバー: 572.60
このプロジェクトでは、NVIDIA L40S と Dell PowerEdge R760 を活用しました。
さらに、ゲストでvGPU機能を有効化するには、専用ライセンスサーバー(DLS)またはクラウドライセンスサーバー(CLS)が必要になります。クイックスタートガイドは、 こちら.
次に、サーバーのUEFI(BIOS)設定で適切な仮想化機能が有効になっていることを確認します。 VT-d or AMD-v, SR-IOV, 4G以上のデコード, サイズ変更可能なバー, 代替ルーティング ID の解釈 (アリ) 設定を確認し、すべてが有効になっていることを確認します。
注意: 一部の機能はユーザーに公開されていない可能性があるため、UEFI メニューにこれらの機能がすべて表示されない場合があります。
最後に、適切なバージョンの Proxmox VE を使用していることを確認します。vGPU 機能には、少なくとも pve-manager バージョン 8.3.4、カーネル 6.18.12-8-pve 以降が必要です。以下に示すように、目的のサーバーの [概要] タブに移動して、PVE ノードのソフトウェア バージョンを確認できます。
最も優れたホスト (Proxmox ホスト vGPU セットアップ)
これで準備はすべて整いました。次は Proxmox VE サーバーの設定です。Proxmox VE サーバーの Web インターフェイスで、画面の左側にあるサーバー名をクリックし、「シェル」タブを選択します。表示されるコンソール ウィンドウに次のコマンドを入力し、完了したら Enter キーを押します。
apt をインストール pve-nvidia-vgpu-helper
これにより、vGPU セットアップ ツールがサーバーにインストールされ、Proxmox vGPU サポートの準備が整います。サーバーがスクリプトのインストールを完了するか、すでに存在していることを通知したら、もう 1 つのコマンドを実行してツールを実行します。
pve-nvidia-vgpu-helper セットアップ
すべての質問に「Y」と答え、コンソール ウィンドウが戻ってスクリプトが終了するまで続行します。サーバーの「概要」タブに移動して「再起動」ボタンを押すか、「シェル」タブのコンソールに再起動コマンドを入力して Enter キーを押すことで、サーバーのクイック再起動を実行します。
次に、NVIDIAのvGPUホストドライバーをサーバーにロードする必要があります。サーバーの再起動が完了したら、SSHまたはSCP転送ツール(例: WinSCPの ホスト ドライバーをノードにコピーします。
注意: すべてのドライバーを圧縮 (.zip) フォルダーとしてまとめてダウンロードした場合は、まずその内容を解凍し、「Host_Drivers」フォルダーから「.run」ファイルを選択する必要があります。
ファイルをサーバーの「/home」ディレクトリに配置し、次のコマンドでインストーラーを実行する準備をします。
cd /home chown root NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run chmod +X NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run ./NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run --dkms
注意: 「NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run」を、ダウンロードしたドライバーの実際の名前に置き換えます。ファイルが「/home」ディレクトリに配置されたら、「ls」コマンドを使用してファイル名を表示できます。

systemctl を有効にする --now [メール保護]



注意: システムに複数の GPU がインストールされている場合は、目的のサーバーの「シェル」タブで「lspci」コマンドを使用して、各カードに対応する ID を判別できます。
デバイスの選択が完了したら、ポップアップ ウィンドウの右下にある [作成] ボタンをクリックして選択を確定します。これで、NVIDIA GPU を Proxmox VE サーバーのゲスト用の vGPU にスライスする準備が整いました。
ゲストへのサービス提供(仮想マシンへの vGPU の割り当て)
仮想マシンに vGPU を割り当てて使用するための準備がすべて整いました。まず、通常どおり新しい仮想マシンを作成するか、既存の VM を使用します。このデモでは、Windows Server 2025 仮想マシンを使用します。
Proxmox VE サーバーの Web インターフェイスで、適切な方法 (noVNC コンソール、ゲストの電源メニューなど) を使用して仮想マシンをシャットダウンし、ゲストの「ハードウェア」タブをクリックします。



- Q – RTX エンタープライズ ドライバーを搭載した仮想ワークステーション (RTX vWS ライセンスが必要)
- B – 仮想デスクトップ(NVIDIA Virtual PC ライセンスまたは RTX vWS ライセンスが必要)
- A – アプリケーション ソリューション (NVIDIA 仮想アプリケーション ライセンスが必要)
注意: さまざまなvGPUプロファイルと必要なライセンスの詳細については、こちらをご覧ください。 こちら.



実行可能ファイルをダブルクリックしてドライバー インストーラー ファイルを実行し、表示されるインストール メニューの指示に従います。



クラウド ライセンス サーバーを使用し、アクティベーションのためにゲストに配置するトークン ファイルを受け取りました。このファイルをゲストに移動し、「C:\Program Files\NVIDIA Corporation\vGPU Licensing\ClientConfigToken」フォルダーにコピーします。


エンジンを始動する (Proxmox vGPU を試す)
仮想 GPU を備えた仮想サーバーがいくつかできたので、実際に試してみましょう。各 VM は、8 個の固定 Intel Xeon Platinum 8580 vCPU (ハイパースレッド コア 4 個)、32 ギガバイトの DDR5 4800 MT/s レジスタード ECC RAM、および 40 ギガバイトの VRAM を備えた NVIDIA L12S-12Q (仮想ワークステーション) vGPU プロファイルで構成されています。仮想マシンの完全なハードウェア構成は、以下で確認できます。
Cinebench 2024
Maxon の Cinema 4D モデリングおよびアニメーション ソフトウェアをベースにした Cinebench 2024 は、vGPU でのレンダリング パフォーマンスを興味深く客観的に評価します。40 台の仮想マシンで「48Q」(VRAM 48 ギガバイトすべて) プロファイルの L12S の性能をフルに発揮した場合と、「XNUMXQ」プロファイルで XNUMX 台の仮想マシンで実行した場合を比較してみましょう。


ブレンダーのベンチマーク
Blender でさらにいくつかのレンダリング ベンチマークを続けましょう。Cinebench 2024 と同様の傾向に従い、GPU を XNUMX 分割すると、同じプロファイルで同じワークロードを実行する単一の仮想マシンと比較すると、全体的なパフォーマンスが大幅に低下します。
Monster ベンチマークで実証されているように、GPU の計算能力を共有する VM が 8 台しかない場合、個々のレンダリング パフォーマンスは同じプロファイルを持つ単一の VM の 2.4% 程度にしかならない可能性があります。ただし、XNUMX 台の仮想マシンが他の仮想マシンに対してかなりのリードを獲得し、最もパフォーマンスの低い仮想マシンのスコアの最大 XNUMX 倍を獲得しているのが観察されました。
Junkshop と Classroom のベンチマークでも同様の結果が得られており、4 つの VM のうち 3 つでパフォーマンスが大幅に低下し、1 つのゲストが他のゲストよりもはるかに高いスコアを獲得しています。
興味深いことに、2025 台の仮想マシンの vGPU に高い優先度が与えられ、大幅にリードする瞬間が短時間あるようです。たとえば、Classroom ベンチマークでは、2025 台目の Windows Server 2 VM (WINXNUMX-XNUMX) は、同時に実行されていたにもかかわらず、他の VM の XNUMX 倍以上のパフォーマンスを達成しました。これが vGPU ソフトウェアのスケジュールによるものか、GPU 自体の性質によるものかは正確には判断できませんが、このカードでの NVIDIA のタイム スライスのみのアプローチに特有のパフォーマンスの異常が浮き彫りになっています。
結論
NVIDIA の vGPU ソフトウェアのセットアップとサポートは、他の競合プラットフォームほど洗練されていないかもしれません。それでも、Proxmox 仮想環境システムをすでに実行している組織やホームラボにとっては、エキサイティングで価値のある機能です。GPU リソースを分割するとパフォーマンスが大幅に低下しますが、多くの組織は依然として NVIDIA の vGPU テクノロジを活用しており、GPU を共有する方がこの欠点を上回ると判断しています。この姿勢は、多くのハイパースケーラーやスペースが限られたデータセンターで採用されており、できるだけ多くのテナント (この場合は、vGPU を備えた仮想マシン) を可能な限り小さなフットプリントに詰め込むことが、最も効率的で収益性の高いオプションです。
Proxmox Server Solutionsの最近の急速な機能拡張には、ソフトウェア定義ネットワーク、Linux 6.11カーネルのサポートなどがあり、 専用のデータセンター管理システム 大きな進歩が見られ、ハイパーバイザー分野で有効な選択肢になりつつあることが証明されています。この分野での継続的な発展を期待しており、近々 PVE に登場するエキサイティングなツールやテクノロジーについてさらに詳しくお伝えできることを楽しみにしています。



Amazon