- Logiciel vGPU : 18.0
- Pilote hôte : 570.124.03
- Pilote invité Linux : 570.124.06
- Pilote invité Windows : 572.60
Nous avons utilisé la NVIDIA L40S et un Dell PowerEdge R760 pour ce projet.
![]()
De plus, vous aurez besoin d'un serveur de licences dédié (DLS) ou d'un serveur de licences cloud (CLS) pour activer la fonctionnalité vGPU sur vos invités. Vous pouvez trouver un guide de démarrage rapide en cliquant ici.
Ensuite, vérifiez que les paramètres UEFI (BIOS) de votre serveur activent les fonctionnalités de virtualisation appropriées. Recherchez les paramètres VT-d ou AMD-v, SR-IOV, décodage au-dessus de 4G, resizable bar, et Alternative Routing ID Interpretation (ARI), et assurez-vous que tous sont activés.Remarque :
Si plusieurs GPU sont installés dans votre système, vous pouvez utiliser la commande "lspci" dans l'onglet "Shell" sur le serveur souhaité pour déterminer les ID qui correspondent à chaque carte.Enfin, vérifiez que vous utilisez une version appropriée de Proxmox VE. La fonctionnalité vGPU nécessite, au minimum, la version 8.3.4 de pve-manager, avec le noyau 6.18.12-8-pve ou plus récent. Vous pouvez vérifier les versions logicielles de votre nœud PVE en naviguant vers l'onglet "Résumé" sur le serveur souhaité, comme illustré ci-dessous :
L'hôte avec le plus (Configuration vGPU de l'hôte Proxmox)
Maintenant que tout est prêt, il est temps de configurer le serveur Proxmox VE. Dans l'interface web de votre serveur Proxmox VE, cliquez sur le nom du serveur dans le coin supérieur gauche de l'écran et sélectionnez l'onglet "Shell". Tapez cette commande dans la fenêtre de console qui apparaît et appuyez sur Entrée une fois terminé :
apt install pve-nvidia-vgpu-helper
Cela garantira l'installation de l'outil de configuration vGPU sur votre serveur, le préparant pour la prise en charge de Proxmox vGPU. Une fois que le serveur a terminé l'installation du script ou vous informe qu'il est déjà présent, exécutez une autre commande pour exécuter l'outil.
pve-nvidia-vgpu-helper setup
Répondez "Y" à toutes les questions et procédez jusqu'à ce que la fenêtre de console revienne et que le script soit terminé. Effectuez un redémarrage rapide du serveur en naviguant vers l'onglet "Résumé" du serveur et en cliquant sur le bouton "Redémarrer", ou tapez la commande de redémarrage dans la console de l'onglet "Shell" et appuyez sur Entrée.
Ensuite, le pilote hôte NVIDIA vGPU doit être chargé sur le serveur. Une fois le serveur redémarré, utilisez un outil de transfert SSH ou SCP tel que WinSCP pour copier le pilote hôte sur le nœud.
Remarque :
Vous pouvez en savoir plus sur les différents profils vGPU et leurs licences requises ici.Placez le fichier dans le répertoire "/home" du serveur et préparez-vous à exécuter l'installateur avec les commandes suivantes.
cd /home chown root NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run chmod +X NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run ./NVIDIA-Linux-x86_64-570.124.03-vgpu-kvm.run --dkms
Remarque :
Si plusieurs GPU sont installés dans votre système, vous pouvez utiliser la commande "lspci" dans l'onglet "Shell" sur le serveur souhaité pour déterminer les ID qui correspondent à chaque carte.Maintenant que le pilote est installé sur le serveur, nous ne sommes plus qu'à quelques étapes de la configuration côté hôte de notre configuration Proxmox vGPU ! Avant de pouvoir marquer le GPU comme un appareil pouvant être divisé entre les machines virtuelles, nous devons activer la virtualisation d'E/S racine unique (SR-IOV). NVIDIA définit cette fonctionnalité comme "...une technologie qui permet à un périphérique PCIe physique de se présenter plusieurs fois via le bus PCIe. Cette technologie permet plusieurs instances virtuelles du périphérique avec des ressources distinctes." Comme SR-IOV est un élément technologique essentiel nécessaire à la fonctionnalité vGPU de base sur les GPU modernes, configurez-le pour qu'il s'active au démarrage avec la commande suivante :
systemctl enable --now pve-nvidia-sriov@ALL.service
Enfin, nous pouvons cartographier les ressources du GPU pour les diviser proprement entre les VM. Sur l'interface web du serveur Proxmox VE, cliquez sur "Datacenter" dans le coin supérieur gauche et faites défiler pour sélectionner l'onglet "Mappages de ressources".
Cliquez sur le bouton "Ajouter" sous la section "Périphériques PCI" de la page, et remplissez le champ "Nom :" dans la fenêtre suivante avec le nom qui décrit le GPU que vous mappez.
Ensuite, cochez la case "Utiliser avec les périphériques médiatisés" et assurez-vous que le menu déroulant "Mappage sur le nœud" contient le serveur avec le GPU en cours de mappage. Faites défiler la liste des périphériques, en confirmant que tous les ID de périphérique ont "NVIDIA Corporation" présent dans la colonne "Vendeur". Si c'est le cas, cliquez sur la case à cocher en haut à gauche du tableau pour sélectionner tous les périphériques ; sinon, sélectionnez uniquement les périphériques dont le vendeur est "NVIDIA Corporation".
Remarque :
Si plusieurs GPU sont installés dans votre système, vous pouvez utiliser la commande "lspci" dans l'onglet "Shell" sur le serveur souhaité pour déterminer les ID qui correspondent à chaque carte.Une fois la sélection du périphérique terminée, cliquez sur le bouton "Créer" dans le coin inférieur droit de la fenêtre contextuelle pour confirmer votre sélection. Votre GPU NVIDIA est maintenant prêt à être découpé en vGPU pour les invités de votre serveur Proxmox VE !
Servir les invités (Assignation de vGPU aux machines virtuelles)
Les pièces sont toutes en place pour que nous puissions commencer à assigner et utiliser des vGPU sur nos machines virtuelles. Commencez par créer une nouvelle machine virtuelle, comme d'habitude, ou en utilisant une VM existante. Pour notre démonstration, nous utiliserons une machine virtuelle Windows Server 2025.
Dans l'interface web du serveur Proxmox VE, arrêtez la machine virtuelle en utilisant la méthode de votre choix (console noVNC, menu d'alimentation de l'invité, etc.), et cliquez sur l'onglet "Matériel" de l'invité.
Dans le menu déroulant qui apparaît après avoir cliqué sur le bouton "Ajouter", sélectionnez un "Périphérique PCI".
Dans la fenêtre contextuelle "Ajouter : Périphérique PCI", sélectionnez le nom que vous avez attribué au GPU mappé sur les ressources dans le champ "Périphérique :".
Ensuite, cliquez sur le champ "Type MDev :" et observez la liste des options de type de périphérique médiatisé présentées. Vous remarquerez que chaque choix a une désignation numérique et alphabétique. Le nombre représente la quantité de VRAM allouée à l'invité (en gigaoctets), tandis que les lettres "A", "B" et "Q" font référence au cas d'utilisation de la vGPU :
Q – Postes de travail virtuels avec pilotes RTX Enterprise (nécessite une licence RTX vWS)
- B – Bureaux virtuels (nécessite une licence NVIDIA Virtual PC ou une licence RTX vWS)
- A – Solutions d'application (nécessite une licence NVIDIA Virtual Applications)
- Remarque :
Vous pouvez en savoir plus sur les différents profils vGPU et leurs licences requises ici.Pour cette démonstration, nous avons utilisé le profil "NVIDIA L40S-12Q". Après avoir sélectionné le type de périphérique médiatisé souhaité, terminez en cochant la case "PCI-Express" et en cliquant sur le bouton bleu "Ajouter".
La VM dispose maintenant d'une vGPU qui lui est assignée, mais nous devons encore installer le pilote invité et un jeton de licence pour que tout fonctionne. Vous pouvez maintenant allumer la machine virtuelle et vous connecter.
Après vous être connecté, transférez le pilote invité NVIDIA vGPU acquis précédemment depuis le portail de licence vers la VM par tout moyen de votre choix (SMB, SCP, téléchargement direct, etc.). Alternativement, vous pouvez créer et télécharger un fichier CD-ROM virtuel (.iso) contenant le pilote sur le stockage de votre serveur PVE à l'aide d'un logiciel comme ImgBurn pour déployer simultanément de nombreux invités compatibles vGPU.
Exécutez le fichier d'installation du pilote en double-cliquant sur l'exécutable et suivez les instructions du menu d'installation qui apparaît.
Extrayez le pilote à l'emplacement par défaut dans le champ "Chemin d'extraction :" et choisissez l'option d'installation "Express" lorsqu'elle vous est demandée.
Une fois l'installation du pilote terminée, cliquez sur le bouton "FERMER" pour quitter le menu.
Ensuite, nous devrons activer la licence vGPU sur l'invité. Les méthodes d'activation peuvent différer considérablement selon que vous sélectionnez un serveur de licences dédié (DLS) ou un serveur de licences cloud (CLS), et votre système d'exploitation. Suivez le guide de démarrage rapide du système de licences NVIDIA et le guide utilisateur des licences client pour des étapes détaillées sur l'activation des clients pour votre configuration spécifique.
Nous avons utilisé un serveur de licences cloud et avons reçu un fichier de jeton à placer sur les invités pour l'activation. Déplacez ce fichier sur l'invité et copiez-le dans le dossier "C:Program FilesNVIDIA CorporationvGPU LicensingClientConfigToken".
Ensuite, un redémarrage de l'invité est nécessaire pour compléter le processus d'activation.
Après avoir suivi toutes les étapes de configuration de l'hôte et de l'invité détaillées ici, vous devriez être prêt à exécuter des programmes et des applications nécessitant un GPU. N'oubliez pas d'activer le protocole de bureau à distance (RDP) ou d'installer votre logiciel de bureau à distance préféré sur vos invités après le redémarrage pour profiter d'une visualisation à distance accélérée par GPU !
Faire monter en régime le moteur (Essai de Proxmox vGPU)
Maintenant que nous avons des serveurs virtuels avec des GPU virtuels, essayons-les ! Chacune de nos VM a été configurée avec 8 vCPU Intel Xeon Platinum 8580 épinglés (4 cœurs hyperthreadés), 32 gigaoctets de RAM ECC enregistrée DDR5 4800 MT/s, et le profil vGPU NVIDIA L40S-12Q (poste de travail virtuel) avec 12 gigaoctets de VRAM. Vous pouvez voir la configuration matérielle complète des machines virtuelles ci-dessous :
Cinebench 2024
Basé sur le logiciel de modélisation et d'animation Cinema 4D de Maxon, Cinebench 2024 offre un aperçu intéressant et objectif des performances de rendu sur les vGPU. Comparons la pleine puissance de la L40S dans son profil "48Q" (les 48 gigaoctets de VRAM) avec une machine virtuelle par rapport à quatre VM exécutant le profil "12Q".
Bien qu'il ne soit pas très logique qu'une seule machine virtuelle accapare toute la L40S, nous pouvons constater que les performances sont impressionnantes avec 21 147 points dans le benchmark GPU en passe unique. Cependant, le partage du GPU en quatre montre l'impact de l'approche de time-slicing de NVIDIA pour partager les cœurs CUDA du GPU, avec des scores individuels allant de 2 514 à 2 567 lorsque le benchmark a été exécuté simultanément sur toutes les VM.
En relançant le test sur une seule machine virtuelle avec le profil "12Q", et les trois autres VM inactives, le score remonte à 15 133. Ce n'est pas exactement un retour au score du GPU complet, mais c'est toujours respectable pour une vGPU partitionnée.
Benchmarks Blender
Continuons avec quelques benchmarks de rendu supplémentaires avec Blender. Suivant des tendances similaires à Cinebench 2024, le partage du GPU en quatre entraîne une performance totale considérablement plus faible par rapport à une seule machine virtuelle exécutant la même charge de travail dans le même profil.
Comme démontré dans le benchmark Monster, le simple fait que quatre VM partagent la puissance de calcul du GPU signifie que les performances de rendu individuelles peuvent être aussi faibles que 8 % de celles d'une seule VM avec le même profil. Cependant, nous avons observé qu'une machine virtuelle prenait une avance considérable sur les autres, jusqu'à 2,4 fois le score du moins performant.
Les benchmarks Junkshop et Classroom racontent des histoires similaires, avec de fortes baisses de performance pour trois des quatre VM et un seul invité obtenant un score beaucoup plus élevé que les autres.
Beijing Qianxing Jietong Technology Co., Ltd.
Sandy Yang/Directeur de la stratégie mondiale
WhatsApp / WeChat : +86 13426366826
E-mail : yangyd@qianxingdata.com
Site Web : www.qianxingdata.com/www.storagesserver.com
Focus commercial :
Distribution de produits TIC / Intégration de systèmes et services / Solutions d'infrastructure
Avec plus de 20 ans d'expérience dans la distribution informatique, nous nous associons à des marques mondiales de premier plan pour fournir des produits fiables et des services professionnels.
"Utiliser la technologie pour construire un monde intelligent" Votre fournisseur de services de produits TIC de confiance !



