Jump to content

Unraid auf NUC10 und GPU passthrough


Dos1973

Recommended Posts

Hallo zusammen,

ich bin ganz neu in der Welt der virtualisierung. Nutze derzeit einige Dockercontainer auf meiner Synology und komme langsam an die grenzen und so bin ich hier gelandet.


Meine Frage. Ich habe mir einen gebrauchten nuc10 gekauft. (Habe ihn noch nicht) Kann ich die Grafik Intel UHD Graphics 620 an die Virtuellen Maschinen weiterreichen.?
 

könnte ich ggfs. Noch weitere USB Grafikkarten an die VM weiterreichen? Ich dachte an soetwas. 

https://www.amazon.de/Adapter-Konverter-Windows-Support-schwarz/dp/B076J3VKMJ/ref=mp_s_a_1_6?dchild=1&keywords=usb+grafikkarte&qid=1615497091&sprefix=usb+graf&sr=8-6

 

ich möchte ein VM für Kodi mit Ausgabe an meinen Denon Receiver / TV

 

eine VM für meine Heimautomatisierung, da soll dann ein Touchscreen dran (iobroker ViS)

 

dann noch weitere VM / container für Unifi, Grafana, Maria DB

 

das wichtigste ist mir das GPU passthrough, der Rest nehme ich an, sollte funktionieren.

 

wie gesagt Erfahrungen habe ich bisher keine in dem Kontext, daher wäre ich wirklich dankbar, wenn mit jemand antworten könnte.
 

Ich habe irgendwie das Gefühl ich habe den NUC zu vorschnell gekauft. :-(

 

Danke

Link to comment
On 3/11/2021 at 10:21 PM, Dos1973 said:

könnte ich ggfs. Noch weitere USB Grafikkarten an die VM weiterreichen?

Bestimmt, aber was soll das bringen? Da sind keine Chips für 3D (HDR Berechnung) oder Video (Decoding von Streams) enthalten und auch sonst ist die Leistung auf unterstem Niveau.

 

On 3/11/2021 at 10:21 PM, Dos1973 said:

Kann ich die Grafik Intel UHD Graphics 620 an die Virtuellen Maschinen weiterreichen.?

Sollte gehen. Dann hat aber Unraid keine und sonst kann auch keine VM diese nutzen.

 

On 3/11/2021 at 10:21 PM, Dos1973 said:

eine VM für meine Heimautomatisierung, da soll dann ein Touchscreen dran (iobroker ViS)

Wenn der NUC für den TV Kodi liefern soll, wo kommt denn dann der Touchscreen bin oder ist das ein Tablet, das über VNC auf diese VM zugreift?

 

Ist IOBroker ViS eine Windows Anwendung oder warum die VM?

Link to comment
On 3/11/2021 at 10:21 PM, Dos1973 said:

 

eine VM für meine Heimautomatisierung, da soll dann ein Touchscreen dran (iobroker ViS)

 

 

Für Iobroker würde ich einen Docker Container einsetzen.

Dieser läuft bei mir schon seit ein paar Wochen sehr stabil und ohne Probleme.

Über die Portfreigabe kannst du dann mit einem Tablet auf den VIS Server im Iobroker zugreifen.

 

Der große Vorteil von Docker ist dass dieser sehr Recourcenschonender ist als eine VM.

Link to comment

Danke für deine Antwort.

 

ich brauche 2 Ausgaben auf physikalische Bildschirme von den virtuellen Maschinen.

 

1x Kodi soll von der CPU GPU kommen.

 

1x iobroker vis.

dieser Touchbildschirm steht im Flur und liefert Infos zu Licht, Rolladen, Temperaturen etc.
daher dachte ich an die UsB Grafikkarte. Ich brauch da nur einen Chrome Browser Anzeige auf einem Touch Bildschirm. Dafür braucht es kein w10 VM, bin da offen. Ich glaube nicht dass es da übermäßig GrafikPower braucht

 

Wenn unraid keine Grafikkarte besitzt kann ich via webfrontend drauf zugreifen.

 

ich hoffe der Nuc kommt heute an ;-)

Link to comment
1 hour ago, Dos1973 said:

dieser Touchbildschirm ... Ich brauch da nur einen Chrome Browser Anzeige

Ja aber dann ist das doch ein Tablet und kein Touch-Bildschirm. Letzterer ist ja nur ein Monitor und der NUC müsste dann in den Flur. Da aber Kodi an den TV soll, ist das für mich nicht schlüssig.

 

1 hour ago, Dos1973 said:

Kodi soll von der CPU GPU kommen.

Macht Sinn. Ich weiß nicht ob das jemals jemand gemacht hat, aber theoretisch könnte man Unraid im GUI Modus booten und Kodi als Slackware (Unraid OS) Paket installieren. Hier und da haben sich schon welche so ein Paket erstellt:

https://www.linuxquestions.org/questions/slackware-14/kodi-18-pvr-hts-tvheadend-4175647592/

 

Was meinst du @ich777?

Link to comment

Das tablet soll weg...

es soll ein touch dran mit einem Browser. Das OS oder container ist virtuell.

 

Zusammengefasst

ich will 2 virtuelle Hosts mit 2 unabhängig echten Bildschirmen.

 

1 virtueller host macht kodi mit Ausgabe an Bildschirm 1

 

1 virtueller Host macht meine Heimautomatisierungs Front end. Ausgabe an ein Bildschirm 2

(Touch, den habe ich noch nicht)

 

 

die Aufstellung ist einfach, ist sozusagen nur eine Mauer dazwischen... füe das HDMi Kabel bohre ich durch ;-)

 

alle anderen Container /VM greife ich via RDP, Vnc oder webconsole zu.

 

 

 

Link to comment
1 hour ago, mgutt said:

Macht Sinn. Ich weiß nicht ob das jemals jemand gemacht hat, aber theoretisch könnte man Unraid im GUI Modus booten und Kodi als Slackware (Unraid OS) Paket installieren.

Theoretisch würde es funktionieren aber es fehlen hald viele Module zB Audio usw...

 

Um was gehts hier genau, soll Unraid auf dem NUC laufen und dann Kodi auch noch oder wie?

 

Theoretisch würde das mit GVT-g und VM's funktionieren aber das wird nicht offiziell unterstütz, ich bin da grad am testen... :D

Link to comment
29 minutes ago, ich777 said:

soll Unraid auf dem NUC laufen und dann Kodi auch noch oder wie?

Ja er will die iGPU und den Audiocontroller des NUC an die Kodi VM durchschleifen. Also Unraid läuft dann ohne.

 

Ich dachte nur ob man es nicht vielleicht auch ohne VM hinbekommt, aber klar, Unraid bringt ja Null Treiber für Audio etc mit. Dann wohl eher eine VM und beten, dass man die Hardware durchschleifen kann.

  • Like 1
Link to comment
15 minutes ago, Dos1973 said:

die Aufstellung ist einfach, ist sozusagen nur eine Mauer dazwischen... füe das HDMi Kabel bohre ich durch ;-)

 

HDMI kann kein Touch übertragen. Dafür brauchst du auch noch USB.

 

15 minutes ago, Dos1973 said:

kann ich denn für Kodi nicht einfach ein libreelec, win10 oder was auch immer nehmen

Ich wollte dir damit die VM ersparen. Die GPU wäre dann auch für Docker Container weiterhin verfügbar. War also nur eine andere Idee das selbe zu erreichen.

Link to comment

Ich bin da um ehrlich zu sein völlig Ergebnis offen. 
 

ich hab den Nuc10i7 mit 64 gb


ich brauche kodi mit sound auf einen Bildschirm.

 

ich brauche meine heimautomatisierung auf einen Bildschirm. Chrome browser kein sound

 

die restlichen container laufen via rdp etc.

Link to comment

Ja die VM ist da wohl die beste Option. Unraid basiert zwar auf Slackware, hat aber alle "unwichtigen" Pakete entfernt. Dazu zählen dann auch die Treiber für Audio, weil man die ja in einem Server nicht benötigt. Daher wäre die direkte Installation von Kodi in Unraid zu aufwendig.

 

Was ich dir nicht sagen kann und was du eben testen musst, ist ob du die iGPU und den Audio-Controller an die VM durchgeschliffen bekommst. Üblicherweise geht man hin und stellt in Settings -> VM -> pcie override auf both um diese beiden Geräte in eigene IOMMU Gruppen zu bekommen (sofern sie das nicht schon sind). Und dann geht man über Tools -> System Devices hin und klickt die Geräte an um sie an VFIO zu binden. Nach einem Neustart sind sie dann für Unraid nicht mehr nutzbar und können einer VM zugeordnet werden. So die Theorie.

Link to comment
2 hours ago, mgutt said:

Üblicherweise geht man hin und stellt in Settings -> VM -> pcie override auf both um diese beiden Geräte in eigene IOMMU Gruppen zu bekommen (sofern sie das nicht schon sind). Und dann geht man über Tools -> System Devices hin und klickt die Geräte an um sie an VFIO zu binden. Nach einem Neustart sind sie dann für Unraid nicht mehr nutzbar und können einer VM zugeordnet werden. So die Theorie.

 

 

Ernüchterung macht sich breit...

das was @mgutt schreibt, habe ich auch gemacht -  meine ich ;-)

 

Habe heute den NUC bekommen, bis hin zur VM10 Installation war es wirklich easy mit den Hinweisen und YT Videos

Aber jetzt gehts nicht weiter. Habe gefühlt jetzt alles durch - aber ich bekomme kein Bild der VM auf meinen Bildschirm angezeigt.

 

Link to comment

okay, jetzt bin ich wieder am Start. habe mal alles wieder auf Standard gesetzt (hoffe ich)

 

so sehen meine IOMMU aus.

 

 

IOMMU group 0:				[8086:9b51] 00:00.0 Host bridge: Intel Corporation Device 9b51
IOMMU group 1:			 	[8086:9bca] 00:02.0 VGA compatible controller: Intel Corporation Device 9bca (rev 04)
IOMMU group 2:			 	[8086:1911] 00:08.0 System peripheral: Intel Corporation Xeon E3-1200 v5/v6 / E3-1500 v5 / 6th/7th/8th Gen Core Processor Gaussian Mixture Model
IOMMU group 3:			 	[8086:02f9] 00:12.0 Signal processing controller: Intel Corporation Comet Lake Thermal Subsytem
IOMMU group 4:			 	[8086:02ed] 00:14.0 USB controller: Intel Corporation Comet Lake PCH-LP USB 3.1 xHCI Host Controller
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 001 Device 002: ID 8087:0026 Intel Corp.
Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 002 Device 002: ID 18a5:0250 Verbatim, Ltd STORE N GO
 	[8086:02ef] 00:14.2 RAM memory: Intel Corporation Comet Lake PCH-LP Shared SRAM
IOMMU group 5:			 	[8086:02f0] 00:14.3 Network controller: Intel Corporation Comet Lake PCH-LP CNVi WiFi
IOMMU group 6:			 	[8086:02e8] 00:15.0 Serial bus controller [0c80]: Intel Corporation Serial IO I2C Host Controller
 	[8086:02ea] 00:15.2 Serial bus controller [0c80]: Intel Corporation Comet Lake PCH-LP LPSS: I2C Controller #2
IOMMU group 7:			 	[8086:02e0] 00:16.0 Communication controller: Intel Corporation Comet Lake Management Engine Interface
IOMMU group 8:			 	[8086:02d3] 00:17.0 SATA controller: Intel Corporation Comet Lake SATA AHCI Controller
[3:0:0:0]    disk    ATA      Samsung SSD 860  1B6Q  /dev/sdb   1.02TB
IOMMU group 9:				[8086:02bc] 00:1c.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #5 (rev f0)
IOMMU group 10:				[8086:02b5] 00:1d.0 PCI bridge: Intel Corporation Device 02b5 (rev f0)
IOMMU group 11:			 	[8086:0284] 00:1f.0 ISA bridge: Intel Corporation Comet Lake PCH-LP LPC Premium Controller/eSPI Controller
 	[8086:02c8] 00:1f.3 Audio device: Intel Corporation Comet Lake PCH-LP cAVS
 	[8086:02a3] 00:1f.4 SMBus: Intel Corporation Comet Lake PCH-LP SMBus Host Controller
 	[8086:02a4] 00:1f.5 Serial bus controller [0c80]: Intel Corporation Comet Lake SPI (flash) Controller
 	[8086:0d4f] 00:1f.6 Ethernet controller: Intel Corporation Ethernet Connection (10) I219-V
IOMMU group 12:				[8086:15e7] 01:00.0 PCI bridge: Intel Corporation JHL7540 Thunderbolt 3 Bridge [Titan Ridge 2C 2018] (rev 06)
IOMMU group 13:				[8086:15e7] 02:00.0 PCI bridge: Intel Corporation JHL7540 Thunderbolt 3 Bridge [Titan Ridge 2C 2018] (rev 06)
IOMMU group 14:				[8086:15e7] 02:01.0 PCI bridge: Intel Corporation JHL7540 Thunderbolt 3 Bridge [Titan Ridge 2C 2018] (rev 06)
IOMMU group 15:				[8086:15e7] 02:02.0 PCI bridge: Intel Corporation JHL7540 Thunderbolt 3 Bridge [Titan Ridge 2C 2018] (rev 06)
IOMMU group 16:			 	[8086:15e8] 03:00.0 System peripheral: Intel Corporation JHL7540 Thunderbolt 3 NHI [Titan Ridge 2C 2018] (rev 06)
IOMMU group 17:			 	[8086:15e9] 39:00.0 USB controller: Intel Corporation JHL7540 Thunderbolt 3 USB Controller [Titan Ridge 2C 2018] (rev 06)
Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 004 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
IOMMU group 18:			 	[17a0:9755] 3a:00.0 SD Host controller: Genesys Logic, Inc Device 9755

 

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...