Sacred Posted July 1, 2023 Share Posted July 1, 2023 (edited) Hey zusammen, komme einfach bei dem Problem nicht weiter. Mir ist bekannt, dass Unraid aktuell mit dem Kernel die Intel Arcs nicht richtig supportet. Wir auf den neuen Kernel warten müssen. Daher wollt ich die Karte in ne VM stecken und halt dort nutzen. Nur egal was, alle möglichen Vorschläge die wir hier im Forum haben, am Ende bleibt die in Windows 10/11 immer beim Code 43 stecken. Bin grundsätzlich nach der VM Anleitung von mgutt vorgegangen. Gestartet wird das System mit: pcie_acs_override=downstream,multifunction vfio_iommu_type1.allow_unsafe_interrupts=1 video=efifb:off PCIe-ACS habe ich alle 3 Optionen getestet. Bei "Multi-Funktion" gibts direkt Probleme, da das System eine der M2 SSDs mit zu VFIO schicken will. Beim unsicheren unterbrechen bringen beide Settings nichts. Und das Video off hatte auch keine Änderung gemacht. Zudem hatte ich noch per modprobe.d eine i915.conf geladen. options i915 force_probe=56a5 options i915 enable_guc=7 Es spielt für die VM keine Rolle, ob ich die conf lade oder nicht. Aktuell lade ich sie nicht mehr, da die GPU ja direkt zur VM geht. Beim Binding sollte ich auch nix vergessen haben. Gibt zumindest keine weiteren ASRock Devices. Und VFIO-PCI-Protokoll sagt auch nur, dass beide Sachen beim Start gefunden und erfolgreich gebunden wurden. Devices listed in /sys/bus/pci/drivers/vfio-pci: lrwxrwxrwx 1 root root 0 Jul 1 16:36 0000:03:00.0 -> ../../../../devices/pci0000:00/0000:00:01.0/0000:01:00.0/0000:02:01.0/0000:03:00.0 lrwxrwxrwx 1 root root 0 Jul 1 16:36 0000:04:00.0 -> ../../../../devices/pci0000:00/0000:00:01.0/0000:01:00.0/0000:02:04.0/0000:04:00.0 vfio-pci binding complete Das System-Protokoll vom Unraid zeigt keine Auffälligkeiten dazu, die einen ins Auge springen könnten. Wenn eine VM gestartet wird, kommt manchmal (nicht immer). Dazu sagte das Forum jetzt aber auch nichts dramatisches. Jul 1 18:58:52 NAS1 kernel: resource sanity check: requesting [mem 0x000c0000-0x000dffff], which spans more than PCI Bus 0000:00 [mem 0x000d4000-0x000dffff window] Jul 1 18:58:52 NAS1 kernel: caller pci_map_rom+0x74/0x16b mapping multiple BARs Das VM-Protokoll ist total ruhig, da ist im Endeffekt ja noch weniger los. Zeigt nur an, mit welchen Settings die VM gestartet wurde und wenn sie dann gestoppt wurde. Leider sind auch die Windows Logs so hilfreich, wie man es von Microsoft erwartet. Probiert habe ich Win 10 & 11 ... Intel Arc aktuelle Treiber o. Beta Treiber und nur die nackten Treiber durch WinUpdate. Q35-7.1 o. i440fx-7.1 mit/ohne Hyper-V OVMF o. OVMF-TPM sogar SeaBIOS mit/ohne Audioanteil der A380 Virtio Treiber immer in der 0.1.229-1 Vertio Guest Tools immer installiert Windows10ebloater verwendet o. auch mal nicht Windows voll geupdatet o. Windows update nicht weiter genutzt VendorID befüllt o. Standard gelassen. Wenn der Treiber alleine frisch installiert ist, o. das Gerät gelöscht wurde und als "Neue Geräte suchen" installiert wurde, ist die Karte im Geräte-Manager erstmal okay. Man kann sie halt ohne einmal neu zu starten nicht verwenden. Wenn ich das aber mache, hat die Karte nen Error mit Code 43. Es bringt auch nix, wenn ich nach der Einrichtung die virtuelle Karte rausnehme und nur die GPU nutze. Dann startet die Kiste nicht komplett und ich komm auch nicht per Remotedesktop drauf. Jemand noch ne Idee? Spoiler <?xml version='1.0' encoding='UTF-8'?> <domain type='kvm' id='4'> <name>Windows 10 - 2. Test</name> <uuid>60f967f5-9160-6c7e-d097-4399ce3b42fa</uuid> <metadata> <vmtemplate xmlns="unraid" name="Windows 10" icon="windows.png" os="windows10"/> </metadata> <memory unit='KiB'>10485760</memory> <currentMemory unit='KiB'>10485760</currentMemory> <memoryBacking> <nosharepages/> </memoryBacking> <vcpu placement='static'>8</vcpu> <cputune> <vcpupin vcpu='0' cpuset='0'/> <vcpupin vcpu='1' cpuset='4'/> <vcpupin vcpu='2' cpuset='1'/> <vcpupin vcpu='3' cpuset='5'/> <vcpupin vcpu='4' cpuset='2'/> <vcpupin vcpu='5' cpuset='6'/> <vcpupin vcpu='6' cpuset='3'/> <vcpupin vcpu='7' cpuset='7'/> </cputune> <resource> <partition>/machine</partition> </resource> <os> <type arch='x86_64' machine='pc-i440fx-7.1'>hvm</type> <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi-tpm.fd</loader> <nvram>/etc/libvirt/qemu/nvram/60f967f5-9160-6c7e-d097-4399ce3b42fa_VARS-pure-efi-tpm.fd</nvram> </os> <features> <acpi/> <apic/> <hyperv mode='custom'> <relaxed state='on'/> <vapic state='on'/> <spinlocks state='on' retries='8191'/> <vendor_id state='on' value='none'/> </hyperv> </features> <cpu mode='host-passthrough' check='none' migratable='on'> <topology sockets='1' dies='1' cores='4' threads='2'/> <cache mode='passthrough'/> </cpu> <clock offset='localtime'> <timer name='hypervclock' present='yes'/> <timer name='hpet' present='no'/> </clock> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/local/sbin/qemu</emulator> <disk type='file' device='cdrom'> <driver name='qemu' type='raw'/> <source file='/mnt/user/appdata/vm-isos/Windows-10.iso' index='3'/> <backingStore/> <target dev='hda' bus='sata'/> <readonly/> <boot order='2'/> <alias name='sata0-0-0'/> <address type='drive' controller='0' bus='0' target='0' unit='0'/> </disk> <disk type='file' device='cdrom'> <driver name='qemu' type='raw'/> <source file='/mnt/user/appdata/vm-isos/virtio-win-0.1.229-1.iso' index='2'/> <backingStore/> <target dev='hdb' bus='sata'/> <readonly/> <alias name='sata0-0-1'/> <address type='drive' controller='0' bus='0' target='0' unit='1'/> </disk> <disk type='file' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source file='/mnt/user/appdata/vm-domains/Windows 10 - 2. Test/vdisk1.img' index='1'/> <backingStore/> <target dev='hdc' bus='sata'/> <serial>vdisk1</serial> <boot order='1'/> <alias name='sata0-0-2'/> <address type='drive' controller='0' bus='0' target='0' unit='2'/> </disk> <controller type='usb' index='0' model='ich9-ehci1'> <alias name='usb'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/> </controller> <controller type='usb' index='0' model='ich9-uhci1'> <alias name='usb'/> <master startport='0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/> </controller> <controller type='usb' index='0' model='ich9-uhci2'> <alias name='usb'/> <master startport='2'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/> </controller> <controller type='usb' index='0' model='ich9-uhci3'> <alias name='usb'/> <master startport='4'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/> </controller> <controller type='pci' index='0' model='pci-root'> <alias name='pci.0'/> </controller> <controller type='sata' index='0'> <alias name='sata0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/> </controller> <controller type='virtio-serial' index='0'> <alias name='virtio-serial0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/> </controller> <interface type='bridge'> <mac address='52:54:00:d6:15:40'/> <source bridge='br0'/> <target dev='vnet3'/> <model type='virtio'/> <alias name='net0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/> </interface> <serial type='pty'> <source path='/dev/pts/0'/> <target type='isa-serial' port='0'> <model name='isa-serial'/> </target> <alias name='serial0'/> </serial> <console type='pty' tty='/dev/pts/0'> <source path='/dev/pts/0'/> <target type='serial' port='0'/> <alias name='serial0'/> </console> <channel type='unix'> <source mode='bind' path='/var/lib/libvirt/qemu/channel/target/domain-4-Windows 10 - 2. Test/org.qemu.guest_agent.0'/> <target type='virtio' name='org.qemu.guest_agent.0' state='connected'/> <alias name='channel0'/> <address type='virtio-serial' controller='0' bus='0' port='1'/> </channel> <input type='tablet' bus='usb'> <alias name='input0'/> <address type='usb' bus='0' port='1'/> </input> <input type='mouse' bus='ps2'> <alias name='input1'/> </input> <input type='keyboard' bus='ps2'> <alias name='input2'/> </input> <tpm model='tpm-tis'> <backend type='emulator' version='2.0' persistent_state='yes'/> <alias name='tpm0'/> </tpm> <graphics type='vnc' port='5900' autoport='yes' websocket='5700' listen='0.0.0.0' keymap='de'> <listen type='address' address='0.0.0.0'/> </graphics> <audio id='1' type='none'/> <video> <model type='qxl' ram='65536' vram='65536' vgamem='16384' heads='1' primary='yes'/> <alias name='video0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/> </video> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </source> <alias name='hostdev0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/> </hostdev> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </source> <alias name='hostdev1'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x08' function='0x0'/> </hostdev> <memballoon model='none'/> </devices> <seclabel type='dynamic' model='dac' relabel='yes'> <label>+0:+100</label> <imagelabel>+0:+100</imagelabel> </seclabel> </domain> Oder kann man die Nutzung der Arc erstmal knicken, bis der Kernel die richtig supportet? Bin für jeden Lösungsansatz dankbar. Edited July 2, 2023 by Sacred XML in den Spoiler gepackt. Quote Link to comment
alturismo Posted July 1, 2023 Share Posted July 1, 2023 4 minutes ago, Sacred said: Oder kann man die Nutzung der Arc erstmal knicken, bis der Kernel die richtig supportet? bei passthrough zu einer VM sollte dies nicht unbedingt das Thema sein, die Karte wird ja anscheinend richtig erkannt. ACS override ... ich gehe jetzt mal davon aus du hast dies auch ganz ohne probiert ? und die Karte ist dann in Ihrer eigenen iommu group ? mach mal bitte einen screen deiner devices (den part der ARC) wenn ACS override disabled ist. Quote Link to comment
Sacred Posted July 1, 2023 Author Share Posted July 1, 2023 (edited) 28 minutes ago, alturismo said: ACS override ... ich gehe jetzt mal davon aus du hast dies auch ganz ohne probiert ? und die Karte ist dann in Ihrer eigenen iommu group ? Genau hatte ich schon probiert. Ist der Override aus ... sieht es so aus: Kann die Karte nicht anklicken weil es heißt, Unraid würde die verwenden. Daher hatte ich probiert mit dem "video=efifb:off" gegen zusteuern, was jemanden geholfen hatte - mir nur nicht. Hatte auch das GPU Statistik und den Intel-GPU-Top deinstalliert. Aber es änderte sich nix. Direkt nach dem deaktivieren vom ACS Override oder wenn ich PCIe-ACS auf "beide" stelle .. sieht es so aus: Er krallt sich dann einfach die M2 SSD, welche im anderen PCIe Slot per Adapter steckt. Beide PCIe Slots teilen sich bei dem System die Lanes und sind dann mit jeweils 8x angebunden. Anders kann ich mir nicht erklären, warum VFIO sich die M2 mit krallt. Edited July 1, 2023 by Sacred Quote Link to comment
Solution alturismo Posted July 1, 2023 Solution Share Posted July 1, 2023 2 hours ago, Sacred said: Ist der Override aus ... sieht es so aus: und da liegt auch sicher das Problem, ACS kann helfen ... aber da hier noch ne nvme auf dem bus liegt welche in unraid läuft wird das sicher schwer ... hast du noch nen anderen pcie slot auf dem Board frei ? ich würde mal nen anderen Slot testen wenn machbar. Quote Link to comment
Sacred Posted July 2, 2023 Author Share Posted July 2, 2023 Gerade als du geschrieben hast, war ich beim Umbau. Nun hat sich die Karte ohne erzwungenen PCIe-ACS einbinden lassen. Um sicher zu gehen, hab ich ne neue Win10 VM gemacht und nach der Anleitung sauber installiert. Leider das gleiche Problem ... egal welcher Treiber, die GPU will einfach nicht sauber starten. Aber wie vorher auch .. die Logfiles im Unraid spucken nix aus. XML: Spoiler <?xml version='1.0' encoding='UTF-8'?> <domain type='kvm' id='2'> <name>Windows 10</name> <uuid>2408c699-a152-5289-a68e-266c814d659a</uuid> <metadata> <vmtemplate xmlns="unraid" name="Windows 10" icon="windows.png" os="windows10"/> </metadata> <memory unit='KiB'>10485760</memory> <currentMemory unit='KiB'>10485760</currentMemory> <memoryBacking> <nosharepages/> </memoryBacking> <vcpu placement='static'>8</vcpu> <cputune> <vcpupin vcpu='0' cpuset='0'/> <vcpupin vcpu='1' cpuset='4'/> <vcpupin vcpu='2' cpuset='1'/> <vcpupin vcpu='3' cpuset='5'/> <vcpupin vcpu='4' cpuset='2'/> <vcpupin vcpu='5' cpuset='6'/> <vcpupin vcpu='6' cpuset='3'/> <vcpupin vcpu='7' cpuset='7'/> </cputune> <resource> <partition>/machine</partition> </resource> <os> <type arch='x86_64' machine='pc-q35-7.1'>hvm</type> <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi-tpm.fd</loader> <nvram>/etc/libvirt/qemu/nvram/2408c699-a152-5289-a68e-266c814d659a_VARS-pure-efi-tpm.fd</nvram> </os> <features> <acpi/> <apic/> <hyperv mode='custom'> <relaxed state='on'/> <vapic state='on'/> <spinlocks state='on' retries='8191'/> <vendor_id state='on' value='none'/> </hyperv> </features> <cpu mode='host-passthrough' check='none' migratable='on'> <topology sockets='1' dies='1' cores='4' threads='2'/> <cache mode='passthrough'/> </cpu> <clock offset='localtime'> <timer name='hypervclock' present='yes'/> <timer name='hpet' present='no'/> </clock> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/local/sbin/qemu</emulator> <disk type='file' device='cdrom'> <driver name='qemu' type='raw'/> <source file='/mnt/user/appdata/vm-isos/Windows-10.iso' index='3'/> <backingStore/> <target dev='hda' bus='sata'/> <readonly/> <boot order='2'/> <alias name='sata0-0-0'/> <address type='drive' controller='0' bus='0' target='0' unit='0'/> </disk> <disk type='file' device='cdrom'> <driver name='qemu' type='raw'/> <source file='/mnt/user/appdata/vm-isos/virtio-win-0.1.229-1.iso' index='2'/> <backingStore/> <target dev='hdb' bus='sata'/> <readonly/> <alias name='sata0-0-1'/> <address type='drive' controller='0' bus='0' target='0' unit='1'/> </disk> <disk type='file' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source file='/mnt/user/appdata/vm-domains/Windows 10/vdisk1.img' index='1'/> <backingStore/> <target dev='hdc' bus='sata'/> <serial>vdisk1</serial> <boot order='1'/> <alias name='sata0-0-2'/> <address type='drive' controller='0' bus='0' target='0' unit='2'/> </disk> <controller type='usb' index='0' model='ich9-ehci1'> <alias name='usb'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/> </controller> <controller type='usb' index='0' model='ich9-uhci1'> <alias name='usb'/> <master startport='0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/> </controller> <controller type='usb' index='0' model='ich9-uhci2'> <alias name='usb'/> <master startport='2'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/> </controller> <controller type='usb' index='0' model='ich9-uhci3'> <alias name='usb'/> <master startport='4'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/> </controller> <controller type='sata' index='0'> <alias name='ide'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x1f' function='0x2'/> </controller> <controller type='pci' index='0' model='pcie-root'> <alias name='pcie.0'/> </controller> <controller type='virtio-serial' index='0'> <alias name='virtio-serial0'/> <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/> </controller> <controller type='pci' index='1' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='1' port='0x10'/> <alias name='pci.1'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0' multifunction='on'/> </controller> <controller type='pci' index='2' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='2' port='0x11'/> <alias name='pci.2'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x1'/> </controller> <controller type='pci' index='3' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='3' port='0x12'/> <alias name='pci.3'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x2'/> </controller> <controller type='pci' index='4' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='4' port='0x13'/> <alias name='pci.4'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x3'/> </controller> <controller type='pci' index='5' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='5' port='0x14'/> <alias name='pci.5'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x4'/> </controller> <interface type='bridge'> <mac address='52:54:00:e0:9b:5b'/> <source bridge='br0'/> <target dev='vnet1'/> <model type='virtio'/> <alias name='net0'/> <address type='pci' domain='0x0000' bus='0x01' slot='0x00' function='0x0'/> </interface> <serial type='pty'> <source path='/dev/pts/0'/> <target type='isa-serial' port='0'> <model name='isa-serial'/> </target> <alias name='serial0'/> </serial> <console type='pty' tty='/dev/pts/0'> <source path='/dev/pts/0'/> <target type='serial' port='0'/> <alias name='serial0'/> </console> <channel type='unix'> <source mode='bind' path='/var/lib/libvirt/qemu/channel/target/domain-2-Windows 10/org.qemu.guest_agent.0'/> <target type='virtio' name='org.qemu.guest_agent.0' state='connected'/> <alias name='channel0'/> <address type='virtio-serial' controller='0' bus='0' port='1'/> </channel> <channel type='qemu-vdagent'> <source> <clipboard copypaste='yes'/> <mouse mode='client'/> </source> <target type='virtio' name='com.redhat.spice.0' state='connected'/> <alias name='channel1'/> <address type='virtio-serial' controller='0' bus='0' port='2'/> </channel> <input type='tablet' bus='usb'> <alias name='input0'/> <address type='usb' bus='0' port='1'/> </input> <input type='mouse' bus='ps2'> <alias name='input1'/> </input> <input type='keyboard' bus='ps2'> <alias name='input2'/> </input> <tpm model='tpm-tis'> <backend type='emulator' version='2.0' persistent_state='yes'/> <alias name='tpm0'/> </tpm> <graphics type='vnc' port='5900' autoport='yes' websocket='5700' listen='0.0.0.0' keymap='de'> <listen type='address' address='0.0.0.0'/> </graphics> <audio id='1' type='none'/> <video> <model type='qxl' ram='65536' vram='65536' vgamem='16384' heads='1' primary='yes'/> <alias name='video0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x0'/> </video> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </source> <alias name='hostdev0'/> <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </hostdev> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </source> <alias name='hostdev1'/> <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </hostdev> <memballoon model='none'/> </devices> <seclabel type='dynamic' model='dac' relabel='yes'> <label>+0:+100</label> <imagelabel>+0:+100</imagelabel> </seclabel> </domain> ======================== Ich lass das oben mal stehen, für andere die ne Lösung suchen. Hatte bei den Settings dort gerade noch Hyper-V abgeschaltet .. und schwups wurde die GPU in der VM auch richtig geladen. Schien also wirklich daran gelegen zu haben, dass sich die beiden PCIe Slots die 16-Lanes geteilt hatten und das Mainboard die auf 2x 8-Lanes verteilt hatte. Hoffe nur, dass macht später keine Probleme, wenn ich die Karte wieder "normal" mit laufen lassen will, wenn mal nen Kernel 6.2 o. neuer kommt. Bildausgabe hab ich aber keine bekommen ... als ich nen Monitor angeschlossen hatte, blieb der dunkel. Und beim runterfahren der VM, hatte ich meinen ersten Unraid Crash überhaupt. Nach nem Neustart lief aber alles wieder und ich konnte das auch so nicht reproduzieren. Für mich wars das erstmal Quote Link to comment
alturismo Posted July 2, 2023 Share Posted July 2, 2023 4 hours ago, Sacred said: Für mich wars das erstmal läuft die jetzt oder nicht ? 4 hours ago, Sacred said: Bildausgabe hab ich aber keine bekommen ... als ich nen Monitor angeschlossen hatte, blieb der dunkel. und bei passthrough sollte zum Test immer ein Monitor angeschlossen sein (oder ein HDMI, DP dummy) Quote Link to comment
alturismo Posted July 2, 2023 Share Posted July 2, 2023 5 hours ago, Sacred said: Hoffe nur, dass macht später keine Probleme, wenn ich die Karte wieder "normal" mit laufen lassen will, wenn mal nen Kernel 6.2 o. neuer kommt. soll mit der 6.13 kommen, das nur zur Info, sprich die Karte am Host zu nutzen für Docker's und co ... Quote Link to comment
alturismo Posted July 2, 2023 Share Posted July 2, 2023 6 hours ago, Sacred said: Für mich wars das erstmal und final zum Abschluss, lies dich mal zum Thema Multifunction ein ich würde die manuell in der VM xml zusammenführen als 1 Gerät, könnte auch hilfreich sein. Quote Link to comment
Sacred Posted July 2, 2023 Author Share Posted July 2, 2023 Also ja .. die Karte funktioniert nun in ihrer VM. Danke für die Hinweis mit der 6.13 .. bin mal gespannt .. irgendwann ist es soweit 6 hours ago, alturismo said: ich würde die manuell in der VM xml zusammenführen als 1 Gerät, könnte auch hilfreich sein. Wie geht das? Der Abschnitt direkt hinter der VNC Grafikkarte dürfte das sein oder? <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </source> <alias name='hostdev0'/> <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </hostdev> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </source> <alias name='hostdev1'/> <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </hostdev> Wenn ich das richtig gelesen habe, müsste das so gehen? Multifunction beim ersten Teil .. was ja 03:00.00 sein sollte .. mit rein. Und beim zweiten Teil .. was ja 04:00.0 sein sollte .. den bus bei adress mit auf die 0x03 und function um 1 hochzählen also 0x1? <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </source> <alias name='hostdev0'/> <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0' multifunction='on'/> </hostdev> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </source> <alias name='hostdev1'/> <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x1'/> </hostdev> Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.