Jump to content

Frage zur Durchreichung einer zusätzlich eingebauten Grafikkarte an meine WIN-VM's


Recommended Posts

Das Motherboard im Unraid-System (ASUS WS C246-PRO) ist mit einer Xeon-6-Kern CPU (E-2226G CPU @ 3.40GHz) bestückt, welche über eine iGPU verfügt. In einen freien PCIe-Slot habe ich eine zusätzliche Grafikkarte Typ PNY Quadro 400 gesteckt, welche ich beabsichtige an die installierten 3 WIN10-PRO VM's durchzureichen. 

Im BIOS des Mainboards habe ich die iGPU als Main-GPU deklariert.

 

Erwartet hatte ich nun, daß unter Tools > System Devices die PCIe-Grafik-Karte anwählbar ist, um diese an VFIO anzubinden.

 

Überraschenderweise kommt mir aber folgende Sachlage entgegen: 

 

image.thumb.png.2971351b9154ed851dc169d937092278.png

 

Anstelle der Quadro 400 Karte wird mir die iGPU (gelb markiert) zur Anbindung an VFIO angeboten.

 

Wie ist damit umzugehen ?  da ja immer gesagt wird: keinesfalls die iGPU an VM's durchreichen

 

Was sollte ich hier nun tun ?      Andere Grafikkarte kaufen und damit ausprobieren ?

 

Vielleicht kann mir hier jemand helfen ?

 

Gruß

RudiD

Link to comment
7 hours ago, GME Unraid Account said:

Anstelle der Quadro 400 Karte wird mir die iGPU (gelb markiert) zur Anbindung an VFIO angeboten.

 

da wird nichts "angeboten", sondern die NV ist in Benutzung ... bzw. die IOMMU Gruppe ...

 

was man auch sieht, 10G NIC in use, ich schätze das hängt alles auf den gleichen CPU Lanes, ist die onboard oder steckt die separat drin ?

zum Start, gibt es im BIOS die Option die NIC über den Chipsatz laufen zu lassen anstelle der CPU (wenn onboard) ? bei mir geht das mit der 2.5G onboard Nic.

oder disable eine NIC (wenn onboard) und/oder teste den anderen NIC Port

 

wenn separate 10G Karte, wo steckt was drin ? NIC, GPU, ... ?

 

8 hours ago, GME Unraid Account said:

Was sollte ich hier nun tun ?

wenn das oben genannte nichts bringt die NV Karte frei zu bekommen wäre unter VM Settings noch folgendes zum Test

 

PCI ACS override > downstream, multifunction, both ... damit kann man evtl. die iommu's auseinander bekommen ....

immer vorausgesetzt, iGPU ist im BIOS als primär gesetzt und ein Monitor / Dongle ist dran (an der iGPU) zur Initialisierung.

Link to comment

Danke erstmal für die unerwartet schnelle Hilfestellung.

 

Die 2 Onboard 1Gbit NICs habe ich im BIOS deaktiviert, da ich eine Dual-Port 10Gbit PCIe-Netzwerkkarte auf einem der beiden PCIe-Slots(x16) gesteckt habe.

Auf dem 2.ten PCIex16-Slot hockt die Dual-10Gbit Netzwerkkarte.

image.png.82c4f4f4d39d766db714d908fa086914.png

 

Nachdem ich im VM-Manager die Default-Einstellung mal auf Downstream geändert habe, fand endlich die Trennung der iommu's statt.

image.thumb.png.64e8f3e246dd3ea344d0ca236451ca84.png

 

ich konnte jetzt die Quadro400 Grafikkarte einer der VM's zuweisen.

 

 

image.thumb.png.a327b98240424b4996515907616c1917.png

Soweit so gut ..... aber

... das Durchschleifen der Grafikkarte wollte ich jedoch aus einem ganz anderem Grund ausprobieren.

 

Meine 3 aktiven WIN10 -VMs habe ich im Unraid System eingerichtet, um dort die Veeam-Backup-Programme zur Sicherung meiner 30+x virtuellen Windows Maschinen

durchzuführen, die über 3 VMware-Hosts verteilt sind. Dazu wurde im ersten Schritt die gesamte Netzwerktechnik aller beteiligten Systeme auf 10GB-Technik umgerüstet.

Der ürsprüngliche Charme dieser Konstruktion, auf dem Unraid -NAS gleich auch die Backup-Welt onboard zu haben, gepaart mit 10GBit-LAN (ähnlich wie moderne Synology-Systeme das heute auch anbieten), ging jedoch in allen Disziplinen bis heute in die Hose.

Das Problem: Trotz Einsatz potenter Hardware im Unraid-System (ASUS-MB WS C246-PRO mit 128GB-RAM, 2 schnelle 1TB Samsung nvme-SSD's vom Typ 970-EVO als protected Cache auf denen die 3 WIN-VM's laufen) leiden diese 3 VM's für mich an unerklärlich schwacher Performance. Alle 3 VM's reagieren extrem träge, egal was man auf ihnen macht.

Letzte Hoffnung bestand jetzt noch, daß das Durchschleifen der Grafikkarte noch was bringen könnte, aber es blieb nicht mehr als die Hoffnung. Der grafische Aufbau ist jetzt zwar etwas schneller, aber die VM's zeigen nach wie vor große Unlust etwas flott zu verarbeiten.

Da bin ich von den VMware Maschinen ganz was anderes gewohnt. Auch meine zeitlich etwas zurückliegenenden Netzwerk-Performance-Tests bzw. der Ermittlung der Dateiübertragungsgeschwindigkeit bei reinen Kopiervorgängen zwischen dem Unraid-System und den Windows-VMs sowie auch von/zu physikalischen WIN-Servern fielen unfassbar schwach aus. Da kommt nicht viel mehr als die vorherige 1GBit Performance zustande.

Um die Netzwerk-Performance zu puschen, habe ich seinerzeit intensiv mit mgutt kommuniziert aber letzlich die Löffel geworfen, nachdem nichts geholfen hat, auf einen akzeptablen Performance-Level zu kommen.

 

Ich denke, daß jetzt die Rückkehr in die performante VMware-Welt ansteht, auch wenn ich dann wieder ein neues NAS von QNAP oder Synology dazukaufen muß, was ich eigentlich vermeiden wollte, da diese Hersteller stets nach ein paar Jahren den Betriebssystem-Support einstellen und man so gezwungen wird wieder eine neue Kiste anzuschaffen. 

 

 

 

 

Link to comment

Das hört sich doch alles sehr wirr an …

Meine vm's laufen als Desktop Ersatz direkt am Monitor oder tv … und gefühlt bare Metal … das gleiche auch bei Bekannten, Verwandten…

Aber ja, bevor du jetzt Stunden verbringst Fehler zu suchen … spring auf deine bekannte Plattform

10G hatte ich früher auch mal laufen, immer ~ 1GB/s Durchsatz… auch dies war nie ein Problem, aber mangels Nutzen hab ich meine Karte ausgebaut zur besseren Kühlung, und innerhalb der vm's von/zu unraid muss das Ja immer gehen …

Ps. 30 vm Backups … da reicht der 1 GB Cache ja nicht wirklich … daher macht der irre Speed ja nur bedingt Sinn da eh einiges ins Array muss …

Link to comment

Ja, von gefühlter bare Metal Performance hab ich auch mal vor der Installation geträumt, leider kam es ganz anders.

 

Korrekt, 1GB Cache zum Backup-Abspeichern von 30+x VM's ist alles andere als ausreichend.
Ich habe den 1GB-Cache nur anfänglich in meiner Testphase benutzt, um dort nur ein paar wenige VM-Backups reinzuspeichern.

Nur wenn sich alles auf dem Cache abspielt, komme ich ja zu wahren Ergebnissen, die mir sagen, welchen maximalen Performance-Level ich überhaupt erreichen kann.

Nachdem ich dann aber einsehen musste, wie armseelig das alles ablief, habe ich entschieden, daß in keinen größeren Cache-nvme-Speicher Geld investiere, sondern nur die 3 WIN10-VM's zum Backupen meiner VMware-Maschinen im Cache laufen lasse. Die Backup-Dateien werden heute direkt am Cache vorbei auf das Array geschrieben.

Link to comment
On 12/12/2022 at 1:17 PM, GME Unraid Account said:

Alle 3 VM's reagieren extrem träge, egal was man auf ihnen macht.

Mit träge meinst du grafisch? Über Web, VNC oder RDP oder egal?

 

On 12/12/2022 at 1:17 PM, GME Unraid Account said:

2 schnelle 1TB Samsung nvme-SSD's vom Typ 970-EVO als protected Cache auf denen die 3 WIN-VM's laufen

Ok, also VMs als Vdisk und dann hattest du hier was von "udev" geschrieben:

https://forums.unraid.net/topic/126823-nicht-zufriedenstellende-ssd-schreibleistung-mit-hochwertig-ausgebautem-unraid-server-im-10gb-lan/?do=findComment&comment=1156910

 

 

Du hast also die Pro durchgeschliffen? Das haben wir beim damaligen Thread verpeilt. Mit Linux NTFS Treiber hat das nämlich nichts zu tun, wenn du die SSD durchschleifst. Allerdings gibt es verschiedene Methoden Datenträger durchzuschleifen. Wie hast du das gemacht?

 

 

On 12/12/2022 at 1:17 PM, GME Unraid Account said:

Da kommt nicht viel mehr als die vorherige 1GBit Performance zustande.

Um die Netzwerk-Performance zu puschen, habe ich seinerzeit intensiv mit mgutt kommuniziert aber letzlich die Löffel geworfen

Häh aber in dem Thread hast du doch nachher mit Multi-Channel deutlich mehr erreicht?!

 

 

 

 

 

Link to comment

Und schon wieder ein neues Problem ....

 

Ich hatte die übergangsweise eingebaute Quadro400Grafikkarte testweise auf eine der 3 WIN VM's durchgeschliffen, um zu sehen wie sich die Reaktion der Veeam-Backup-Software anfühlt, wenn man im Setup rumarbeitet oder auch nur den Setup-Assistenten aufruft bzw. zumacht. 

Ergebnis Die Trägheit der VM hat sich auch mit durchgeschliffener  GPU kaum verbessert.

Anschließend habe ich alles wieder rückgängig gemacht (VFIO Bindung der Grafikkarte aufgehoben, rebootet und die Grafik im VM-Setup wieder auf VNC gesetzt).

Die Grafikkarte habe ich zunächst im PCIe-Slot stecken lassen. 

 

Dann gab es nach dem Reboot die nächste böse Überraschung.

Keine der 3 VM's lässt sich mehr durch VNC erreichen.

 

Diese Meldung kommt mir jetzt entgegen: 

image.png.6ea803492f0b1a0bb1d77f557c340d96.png   

 

Rebooten hilft nicht.

 

Kann mir jemandaus dieser Falle raushelfen  ?

 

 

Link to comment
On 12/16/2022 at 1:21 PM, GME Unraid Account said:

Ergebnis Die Trägheit der VM hat sich auch mit durchgeschliffener  GPU kaum verbessert.

 

mal eine Frage, du nutzt aber nicht VNC dann per unraid um dann die VM zu nutzen ?

 

sondern zumindest RDP, was zwar auch sw encodeter stream wäre aber wesentlich besser als der QXL VNC Kram ;) und mit einer GPU kannst du sogar parsec nutzen für den Desktop was das Niveau deutlich anhebt ... egal.

 

zu deinem Fehler, entweder starten die VM's jetzt nicht mehr sauber (wovon ich ausgehe) oder da ist was passiert beim vorwärts/rückwärts einrichten ... steht was in dem VM log ?

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...