Firemaster640

Members
  • Posts

    24
  • Joined

  • Last visited

Everything posted by Firemaster640

  1. Ich habe es mitlerweile hinbekommen, der Fehler war denkbar einfach und peinlich... Ich habe so ziemlich alles wie oben benannt gemacht gehabt, nur das Netzwerkkabel ist wohl defekt... Vielen Dank dennoch für die Hilfe
  2. Servus! Ich probiere aktuell eine OPN VM in Unraid zu installieren. (Um meine Daten zusätzlich zu Schützen, vertraue dem Router einfach nicht mehr) Auf jeden Fall, mein Problem: Der Router (FritzBox) vergibt der VM keine IP-Adresse und somit kann die VM sich natürlich nicht einwählen. Die Netzwerkkarte wird komplett durchgereicht und erkennt auch das ein&ausstecken von den 4 Lan Anschlüssen... Hat jemand eine Idee warum der keine IP-Adresse erhält?
  3. Ich habe es gestern Abend hinbekommen, der Fehler war im Bios versteckt. Nachdem mir bei dem letzten Versuch aufgefallen ist, dass die Grafikkarte scheinbar nicht richtig arbeitet habe ich so ziemlich alle Einstellungen durchprobiert und bin auf etwas scheinbares banales gestoßen: "Stromsparmodus" Das Mainboard hatte eine Einstellung aktiv, der nicht aktive PCIe Geräte in einen Schlafzustand schickt um den Strom zu sparen. Es werden diese jedoch ganz normal erkannt und können auf diese auch zugegriffen werden, nur sie aktivieren sich nach dem Boot nicht mehr. Ich kann (es war eine Abkürzung) jetzt nicht mehr genau sagen wie diese Einstellung sich nennt, ab den Zeitpunkt, als diese Deaktiviert war funktionierte alles Problemlos.
  4. Ich habe mal folgendes nun Versucht: StandartGPU auf die zweite Grafikkarte im BIOS gesetzt und gestartet. Jetzt startet die VM mit der ersten Grafikkarte nicht mehr. Das spannende ist hierbei: Die exakt gleiche Fehlermeldung! Irgendwelche Ideen?
  5. Das habe ich nicht so gemeint: Nachdem ich den Haken rausgenommen hatte bootete der Server stets ins BIOS und nicht mehr den USB. Das umstellen im BIOS auf Legacy speichert das BIOS irgendwie nicht, alle anderen Einstellungen werden (versuchsweise durchgeführt) gespeichert. Daher musste ich ein bisschen rumprobieren das Unraid wieder startet. Das Problem mit der 2ten Grafikkarte ist jedoch weiterhin vorhanden...
  6. Also mein Mainboard wollte nicht die Umstellung speichern, er startet jetzt wieder um UEFI. Da bin ich jetzt froh, jetzt bootet er nicht mehr ins BIOS. Also was nun?
  7. Soweit ich sehe sind die richtig mit 8x8x angebunden, was mich wundert ist jedoch,dass die 2te Grafikkarte bzw. Soundkarte nicht die VFIO "in use" hat. Überall sonst steht es jedoch drin ?_? ############## Habe ich bereits probiert, beide bleiben aus und die iGPU ist als primäre drin. Es ändern sich jedoch auch nix, wenn ich nur eine drin habe. ############# Der Haken war dort schon drin. Und jetzt startet er nicht mehr... jedenfalls ohne den Haken... Wie fixe ich das jetzt? ########### Habe ich bevor ich den Forumeintrag erstellt habe bereits ausprobiert... leider Erfolgslos ############ Wo kann ich das machen?
  8. Daher ist es auch für mich ein Riesen Problem Bild im Anhang, es wird alles durchgereicht Es könnte sein, dass ich ne Falsche Zeitzone eingestellt habe im Bios 🤔 Zone +1 und -1 Verwechseln und so
  9. Leider nicht, siehe Screenshot im Anhang ################################################################### Die letzte Zeile ist gelb Hinterlegt. #################################################################################### ###################################################################################### Wird nicht automatisch gestartet, die VM habe ich heute erstellt und via VNC heute erstmal eingerichtet. Sie startet jedoch Problemlos, wenn die erste Grafikkarte nicht im Server sitzt oder die erste Grafikkarte angewählt wird. ##################################################################################### Ich hab im BIOS gesucht, jedoch (typisch Gigabyte - unübersichtlich) habe ich nichts gefunden um dies einzustellen. ####################################################################################### Das Netzteil limitiert den Platz ############################################################################################### Wurde bedacht 🙂 Aber Danke für den Hinweiß
  10. Noch ein kleines Update: Ist nur eine Grafikkarte im Server - egal ob auf PCIe1 oder PCIe4 funktioniert die Grafikkarte, nur nicht, wenn beide gleichzeitig drin sind.
  11. Servus, ich wollte heute, nachdem endlich die zweite Grafikkarte angekommen ist diese für die 2te VM verwenden. Alles eingestellt (VFIO, in der VM,....) und ich bekomme diesen Fehler: internal error: qemu unexpectedly closed the monitor Nach rumprobieren und auch die Grafikkarte umtauschen (Slot 1 & 4 Vertauschen [sind beide 16x]) bleibt der Fehler bestehen. Ich habe bereits alle ACS Arten durchprobiert aber diese blieben erfolgslos.... Hat jemand einen Peil was ich da machen kann? Es funktioniert scheinbar immer nur die Grafikkarte nicht die auf dem Slot 4 eingesteckt ist. (2&3 sind 1x und bei 5 wäre zu wenig Platz um sie einzustecken) Zu dem VMs: Beide funktionieren, wenn die die Graka auf PCIeSlot 1 verwende, die andere jeweils nicht... Muss man hierbei etwas anders einstellen? Zur Info - Das System: Mainboard - ASRock W480 Creator CPU - Intel® Xeon® W-1290P RAM - 4x 32 GB RAM Nicht-ECC PCIe1 (16x) - Nvidea GTX 1550 PCIe2 (1x) - Frei Wegen Platzmangel PCIe3 (1x) - Sata Adapter PCIe4 (16x) - Nvidia GTC 1050Ti PCIe5 (16x) - Noch leer, geplant ist noch eine kleinere Graka wenn die Preise mal wieder normal sind für VM Nr 3 ;-) (Gleich darunter ist schon das Netzteil - daher hat PCIe5 Nur eine Slotbreite Platz)
  12. Ne, ein Audio-Freeze der VM - Konnte ich jedoch mitlerweile beheben. Die Graka wirft noch paar Fehler (vermute mal Treiber) aber es funktioniert jetzt immerhin. 🙂 Vielen Dank für die Hilfe
  13. Parsec Meinte die VM damit ja Wo kann ich das lesen? Jop, hab ich getestet bevor ich den aufm Schrank geschmissen habe
  14. Der Unraid PC steht aufm Schrank und ich greife über das Netzwerk auf ihn zu, bislang über VNC. Wenn nur die Grafikkarte angesteuert wird (zum Glück habe ich ein 3m HDMI Kabel) funktioniert er scheinbar - er hängt sich jedoch am Signalton zumindest aukustisch auf. Das erklärt eventuell den Signalton 😅
  15. Leider nicht 😞 ErrorWarningSystemArrayLogin -mon chardev=charmonitor,id=monitor,mode=control \ -rtc base=utc,driftfix=slew \ -global kvm-pit.lost_tick_policy=delay \ -no-hpet \ -no-shutdown \ -boot strict=on \ -device pcie-root-port,port=0x10,chassis=1,id=pci.1,bus=pcie.0,multifunction=on,addr=0x2 \ -device pcie-root-port,port=0x11,chassis=2,id=pci.2,bus=pcie.0,addr=0x2.0x1 \ -device pcie-root-port,port=0x12,chassis=3,id=pci.3,bus=pcie.0,addr=0x2.0x2 \ -device pcie-root-port,port=0x13,chassis=4,id=pci.4,bus=pcie.0,addr=0x2.0x3 \ -device pcie-root-port,port=0x14,chassis=5,id=pci.5,bus=pcie.0,addr=0x2.0x4 \ -device pcie-root-port,port=0x15,chassis=6,id=pci.6,bus=pcie.0,addr=0x2.0x5 \ -device pcie-pci-bridge,id=pci.7,bus=pci.1,addr=0x0 \ -device ich9-usb-ehci1,id=usb,bus=pcie.0,addr=0x7.0x7 \ -device ich9-usb-uhci1,masterbus=usb.0,firstport=0,bus=pcie.0,multifunction=on,addr=0x7 \ -device ich9-usb-uhci2,masterbus=usb.0,firstport=2,bus=pcie.0,addr=0x7.0x1 \ -device ich9-usb-uhci3,masterbus=usb.0,firstport=4,bus=pcie.0,addr=0x7.0x2 \ -device virtio-serial-pci,id=virtio-serial0,bus=pci.2,addr=0x0 \ -blockdev '{"driver":"file","filename":"/mnt/user/domains/Linux - Josefine/vdisk1.img","node-name":"libvirt-1-storage","cache":{"direct":false,"no-flush":false},"auto-read-only":true,"discard":"unmap"}' \ -blockdev '{"node-name":"libvirt-1-format","read-only":false,"cache":{"direct":false,"no-flush":false},"driver":"qcow2","file":"libvirt-1-storage","backing":null}' \ -device virtio-blk-pci,bus=pci.4,addr=0x0,drive=libvirt-1-format,id=virtio-disk2,bootindex=1,write-cache=on \ -netdev tap,fd=33,id=hostnet0 \ -device virtio-net,netdev=hostnet0,id=net0,mac=52:54:00:97:60:b9,bus=pci.3,addr=0x0 \ -chardev pty,id=charserial0 \ -device isa-serial,chardev=charserial0,id=serial0 \ -chardev socket,id=charchannel0,fd=34,server,nowait \ -device virtserialport,bus=virtio-serial0.0,nr=1,chardev=charchannel0,id=channel0,name=org.qemu.guest_agent.0 \ -device usb-tablet,id=input0,bus=usb.0,port=1 \ -vnc 0.0.0.0:0,websocket=5700 \ -k de \ -device qxl-vga,id=video0,ram_size=67108864,vram_size=67108864,vram64_size_mb=0,vgamem_mb=16,max_outputs=1,bus=pcie.0,addr=0x1 \ -device vfio-pci,host=0000:01:00.0,id=hostdev0,bus=pci.5,addr=0x0 \ -device vfio-pci,host=0000:01:00.1,id=hostdev1,bus=pci.6,addr=0x0 \ -sandbox on,obsolete=deny,elevateprivileges=deny,spawn=deny,resourcecontrol=deny \ -msg timestamp=on 2021-07-07 11:28:27.170+0000: Domain id=10 is tainted: high-privileges 2021-07-07 11:28:27.170+0000: Domain id=10 is tainted: host-cpu char device redirected to /dev/pts/0 (label charserial0) 2021-07-07T11:29:43.378984Z qemu-system-x86_64: terminating on signal 15 from pid 4733 (/usr/sbin/libvirtd) 2021-07-07 11:29:45.001+0000: shutting down, reason=shutdown 2021-07-07 11:29:56.499+0000: starting up libvirt version: 6.5.0, qemu version: 5.1.0, kernel: 5.10.28-Unraid, hostname: Server LC_ALL=C \ PATH=/bin:/sbin:/usr/bin:/usr/sbin \ HOME='/var/lib/libvirt/qemu/domain-11-Linux - Josefine' \ XDG_DATA_HOME='/var/lib/libvirt/qemu/domain-11-Linux - Josefine/.local/share' \ XDG_CACHE_HOME='/var/lib/libvirt/qemu/domain-11-Linux - Josefine/.cache' \ XDG_CONFIG_HOME='/var/lib/libvirt/qemu/domain-11-Linux - Josefine/.config' \ QEMU_AUDIO_DRV=none \ /usr/local/sbin/qemu \ -name 'guest=Linux - Josefine,debug-threads=on' \ -S \ -object 'secret,id=masterKey0,format=raw,file=/var/lib/libvirt/qemu/domain-11-Linux - Josefine/master-key.aes' \ -blockdev '{"driver":"file","filename":"/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd","node-name":"libvirt-pflash0-storage","auto-read-only":true,"discard":"unmap"}' \ -blockdev '{"node-name":"libvirt-pflash0-format","read-only":true,"driver":"raw","file":"libvirt-pflash0-storage"}' \ -blockdev '{"driver":"file","filename":"/etc/libvirt/qemu/nvram/adc3d238-6942-6e11-b8da-54f432aa2a3d_VARS-pure-efi.fd","node-name":"libvirt-pflash1-storage","auto-read-only":true,"discard":"unmap"}' \ -blockdev '{"node-name":"libvirt-pflash1-format","read-only":false,"driver":"raw","file":"libvirt-pflash1-storage"}' \ -machine pc-q35-5.1,accel=kvm,usb=off,dump-guest-core=off,mem-merge=off,pflash0=libvirt-pflash0-format,pflash1=libvirt-pflash1-format \ -cpu host,migratable=on,host-cache-info=on,l3-cache=off \ -m 32256 \ -overcommit mem-lock=off \ -smp 12,sockets=1,dies=1,cores=6,threads=2 \ -uuid adc3d238-6942-6e11-b8da-54f432aa2a3d \ -no-user-config \ -nodefaults \ -chardev socket,id=charmonitor,fd=31,server,nowait \ -mon chardev=charmonitor,id=monitor,mode=control \ -rtc base=utc,driftfix=slew \ -global kvm-pit.lost_tick_policy=delay \ -no-hpet \ -no-shutdown \ -boot strict=on \ -device pcie-root-port,port=0x10,chassis=1,id=pci.1,bus=pcie.0,multifunction=on,addr=0x2 \ -device pcie-root-port,port=0x11,chassis=2,id=pci.2,bus=pcie.0,addr=0x2.0x1 \ -device pcie-root-port,port=0x12,chassis=3,id=pci.3,bus=pcie.0,addr=0x2.0x2 \ -device pcie-root-port,port=0x13,chassis=4,id=pci.4,bus=pcie.0,addr=0x2.0x3 \ -device pcie-root-port,port=0x14,chassis=5,id=pci.5,bus=pcie.0,addr=0x2.0x4 \ -device pcie-root-port,port=0x15,chassis=6,id=pci.6,bus=pcie.0,addr=0x2.0x5 \ -device pcie-pci-bridge,id=pci.7,bus=pci.1,addr=0x0 \ -device ich9-usb-ehci1,id=usb,bus=pcie.0,addr=0x7.0x7 \ -device ich9-usb-uhci1,masterbus=usb.0,firstport=0,bus=pcie.0,multifunction=on,addr=0x7 \ -device ich9-usb-uhci2,masterbus=usb.0,firstport=2,bus=pcie.0,addr=0x7.0x1 \ -device ich9-usb-uhci3,masterbus=usb.0,firstport=4,bus=pcie.0,addr=0x7.0x2 \ -device virtio-serial-pci,id=virtio-serial0,bus=pci.2,addr=0x0 \ -blockdev '{"driver":"file","filename":"/mnt/user/domains/Linux - Josefine/vdisk1.img","node-name":"libvirt-1-storage","cache":{"direct":false,"no-flush":false},"auto-read-only":true,"discard":"unmap"}' \ -blockdev '{"node-name":"libvirt-1-format","read-only":false,"cache":{"direct":false,"no-flush":false},"driver":"qcow2","file":"libvirt-1-storage","backing":null}' \ -device virtio-blk-pci,bus=pci.4,addr=0x0,drive=libvirt-1-format,id=virtio-disk2,bootindex=1,write-cache=on \ -netdev tap,fd=33,id=hostnet0 \ -device virtio-net,netdev=hostnet0,id=net0,mac=52:54:00:97:60:b9,bus=pci.3,addr=0x0 \ -chardev pty,id=charserial0 \ -device isa-serial,chardev=charserial0,id=serial0 \ -chardev socket,id=charchannel0,fd=34,server,nowait \ -device virtserialport,bus=virtio-serial0.0,nr=1,chardev=charchannel0,id=channel0,name=org.qemu.guest_agent.0 \ -device usb-tablet,id=input0,bus=usb.0,port=1 \ -vnc 0.0.0.0:0,websocket=5700 \ -k de \ -device qxl-vga,id=video0,ram_size=67108864,vram_size=67108864,vram64_size_mb=0,vgamem_mb=16,max_outputs=1,bus=pcie.0,addr=0x1 \ -device vfio-pci,host=0000:01:00.0,id=hostdev0,bus=pci.5,addr=0x0 \ -device vfio-pci,host=0000:01:00.1,id=hostdev1,bus=pci.6,addr=0x0 \ -sandbox on,obsolete=deny,elevateprivileges=deny,spawn=deny,resourcecontrol=deny \ -msg timestamp=on 2021-07-07 11:29:56.499+0000: Domain id=11 is tainted: high-privileges 2021-07-07 11:29:56.499+0000: Domain id=11 is tainted: host-cpu char device redirected to /dev/pts/0 (label charserial0) 2021-07-07T11:30:36.878053Z qemu-system-x86_64: terminating on signal 15 from pid 4733 (/usr/sbin/libvirtd) 2021-07-07 11:30:38.504+0000: shutting down, reason=shutdown Sagt mir alles nichts, alles ist weiß bzw. einzelndes blau Angezeigt wird es unter System bei Linux Wie sehe ich dann ob das klappt? 😅 War ein vergeblicher Versuch - jetzt ist es dort leer
  16. Vfio war nicht gebunden - nun ist der Haken drin... jetzt kommt bei Linux: Device-2: NVIDIA GP107 [GeForce GTX 1050 Ti] vendor: PNY driver: nvidia v:460.80 bus ID: 06:00.0 chip ID: 10de:1c82 Display: x11 server: X.Org 1.20.9 driver: nvidia unloaded: fbdev, modesetting, nouveau, vesa resolution: 1024x768~60Hz Und Unraid hat eine iGPU 😅
  17. Servus, ich habe heute eine VM (Linux Mint) erstellt und wollte meine Grafikkarte durchreichen.... Nach mehreren Stunden versuchen und probieren bin ich nun komplett ratlos was ich machen kann oder ob ich etwas falsch eingestellt habe. Hier die XML: <?xml version='1.0' encoding='UTF-8'?> <domain type='kvm'> <name>Linux - Josefine</name> <uuid>adc3d238-6942-6e11-b8da-54f432aa2a3d</uuid> <metadata> <vmtemplate xmlns="unraid" name="Linux" icon="linux.png" os="linux"/> </metadata> <memory unit='KiB'>33030144</memory> <currentMemory unit='KiB'>33030144</currentMemory> <memoryBacking> <nosharepages/> </memoryBacking> <vcpu placement='static'>12</vcpu> <cputune> <vcpupin vcpu='0' cpuset='4'/> <vcpupin vcpu='1' cpuset='14'/> <vcpupin vcpu='2' cpuset='5'/> <vcpupin vcpu='3' cpuset='15'/> <vcpupin vcpu='4' cpuset='6'/> <vcpupin vcpu='5' cpuset='16'/> <vcpupin vcpu='6' cpuset='7'/> <vcpupin vcpu='7' cpuset='17'/> <vcpupin vcpu='8' cpuset='8'/> <vcpupin vcpu='9' cpuset='18'/> <vcpupin vcpu='10' cpuset='9'/> <vcpupin vcpu='11' cpuset='19'/> </cputune> <os> <type arch='x86_64' machine='pc-q35-5.1'>hvm</type> <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd</loader> <nvram>/etc/libvirt/qemu/nvram/adc3d238-6942-6e11-b8da-54f432aa2a3d_VARS-pure-efi.fd</nvram> </os> <features> <acpi/> <apic/> </features> <cpu mode='host-passthrough' check='none' migratable='on'> <topology sockets='1' dies='1' cores='6' threads='2'/> <cache mode='passthrough'/> </cpu> <clock offset='utc'> <timer name='rtc' tickpolicy='catchup'/> <timer name='pit' tickpolicy='delay'/> <timer name='hpet' present='no'/> </clock> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/local/sbin/qemu</emulator> <disk type='file' device='disk'> <driver name='qemu' type='qcow2' cache='writeback'/> <source file='/mnt/user/domains/Linux - Josefine/vdisk1.img'/> <target dev='hdc' bus='virtio'/> <boot order='1'/> <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </disk> <controller type='usb' index='0' model='ich9-ehci1'> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/> </controller> <controller type='usb' index='0' model='ich9-uhci1'> <master startport='0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/> </controller> <controller type='usb' index='0' model='ich9-uhci2'> <master startport='2'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1' multifunction='on'/> </controller> <controller type='usb' index='0' model='ich9-uhci3'> <master startport='4'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/> </controller> <controller type='pci' index='0' model='pcie-root'/> <controller type='pci' index='1' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='1' port='0x10'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0' multifunction='on'/> </controller> <controller type='pci' index='2' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='2' port='0x11'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x1'/> </controller> <controller type='pci' index='3' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='3' port='0x12'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x2'/> </controller> <controller type='pci' index='4' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='4' port='0x13'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x3'/> </controller> <controller type='pci' index='5' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='5' port='0x14'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x4'/> </controller> <controller type='virtio-serial' index='0'> <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/> </controller> <controller type='sata' index='0'> <address type='pci' domain='0x0000' bus='0x00' slot='0x1f' function='0x2'/> </controller> <interface type='bridge'> <mac address='52:54:00:97:60:b9'/> <source bridge='br0'/> <model type='virtio-net'/> <address type='pci' domain='0x0000' bus='0x01' slot='0x00' function='0x0'/> </interface> <serial type='pty'> <target type='isa-serial' port='0'> <model name='isa-serial'/> </target> </serial> <console type='pty'> <target type='serial' port='0'/> </console> <channel type='unix'> <target type='virtio' name='org.qemu.guest_agent.0'/> <address type='virtio-serial' controller='0' bus='0' port='1'/> </channel> <input type='tablet' bus='usb'> <address type='usb' bus='0' port='1'/> </input> <input type='mouse' bus='ps2'/> <input type='keyboard' bus='ps2'/> <graphics type='vnc' port='-1' autoport='yes' websocket='-1' listen='0.0.0.0' keymap='de'> <listen type='address' address='0.0.0.0'/> </graphics> <video> <model type='qxl' ram='65536' vram='65536' vgamem='16384' heads='1' primary='yes'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x0'/> </video> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x01' slot='0x00' function='0x0'/> </source> <rom file='/mnt/disk1/Grafik-Bios/Asus.GTX1050Ti.4096.171212.rom'/> <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </hostdev> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x01' slot='0x00' function='0x1'/> </source> <address type='pci' domain='0x0000' bus='0x05' slot='0x00' function='0x0'/> </hostdev> <memballoon model='none'/> </devices> </domain> HVM und IOMMU sind aktiviert. Doch der fehler bleibt: Linux Mint erkennt die Grafikkarte doch startet sie nicht. Die VM spuckt mir bei Systemberichte folgendes aus: Device-2: Nvidia GP107 [GeForce GTX 1050 Ti] vendor: PNY driver: nvidia v: 460.80 bus ID: 06:00.0 chip ID: 10de:1c82 Display: x11 server: X.Org 1.20.9 driver: modesetting unloaded: fbdev, vesa resouliton: 1024x768~60Hz Wie bekomme ich es hin, dass die richtig durchgereicht wird?
  18. Am liebsten würde ich ein Handbuch lesen, nachdem ich nur eines auf Englisch gefunden habe und ich darin echt Mies bin ist das leider ein Problem. Die "kleinen" HDDs habe ich rumliegen. Die 4TB HDD und die MVMEs müsste ich noch kaufen, ich möchte aber dann nichts unnötig kaufen. Diese Info habe ich nirgendwo gefunden. Die ist echt Gold wert. Natürlich müsste ich dann die NVME exta laufen lassen. Für die VM. Innerhalb der VM wird diese Pattition Laufwerk C. Somit kommt hierbei noch zusätzliche Programme drauf. Genau das will ich erreichen, die 250 GB Daten sind nicht "extrem wichtig", die wichtigen Daten sind auf den HDDs. Also.... Wäre somit sinnvoller 1 TB MVME in Cache zu belassen und 1 TB MVME für die VMs als Unassigned Disk zu belassen. Im Array 4 TB HDD als Parität und der Rest der HDDs als Speicher für die Shares. Das wiederum würde heißen, dass ich nur 2 MVMEs mit 1 TB kaufen kann und die möglichen Sockel nicht komplett ausnützen müsste. Die Frage wäre hierbei nur noch, wie wirkt sich das auf das Mainboard aus. Dies hat aber nix mit Unraid zu tun, also Überspringen wir dies mal. Lese ich später mal nach, welche Geschwinigkeiten hierbei sinnvoll sind.
  19. Die Hauptcache werde ich nicht verändern und co. Die Shares werden aber auf die Second Cache zugreifen, damit diese etwas besser aufgeteilt sind. So eine möchte ich 1x kaufen, ja. Die Standart-Festplatte kann man ja bei dem erstellen der VM gut einstellen. Daher ist der Plan die NVME mit 250 GB zuzuweisen. 2x 250 GB Windows VM 1x 250 GB Linux VM 1x 250 GB "Puffer" Platz für VM Versuche, eventuell das Docker Zeugs - damit habe ich aber noch keine Ahnung, so weit bin ich noch nicht beim belesen. Dies würde jedoch die Cache wiederum belasten bzw. die VM vorwiegend im Cache belassen - richtig? Wenn ja, ist es genau das, was ich vermeiden möchte. Eventuell für die Cache Aufteilung, die ich mir überlegt hatte: 500 GB MVME -> Haupt Cache für die Unraid Standart Zeug 500 GB MVME -> Second Cache für die Festplatten zum Beschleunigen, es arbeitet meines Wissens nach ähnlich wie eine SHDD Cache im RAM möchte ich nach Möglichkeit vermeiden (eventuell würde ich die, glaube 20% waren der Standart, reduzieren auf 10%) Damit es, falls es Ausfälle gibt die Daten darin nicht verloren gehen. Bin auf die Idee gekommen bei einem Video, bei dem HDD,SDD und DDR4 (glaub wars) verglichen wurden und durch ein weiteres Video, bei dem die Raten von DDR4 und MVME verglichen wurden. Daher denke ich, dass eine Cache die über eine MVME anstatt über einen RAM-Riegel läuft wesentlich "sicherer" gegen Datenverlusst ist. Natürlich werden Schreib und Leseprozesse abgeschwächt, die Sicherheit liegt mir hierbei doch mehr am Herzen.
  20. Also, das ich es richtig Verstanden habe.... Erstmal das Bauliche: 3x MVME; 5 HDD Einstellung im Array: Parität -> 4 TB HDD Speicher -> 1x 4 TB HDD / 2x 1 TB HDD / 1x 2 TB HDD / 1x 1 TB MVME Cache -> 1x 500 GB MVME Sec.Cache -> 1x 500 GB MVME Einstellung im Share: Share "1" -> Speichern nur auf 4 TB Speicherplatte (HDD) Share "2" -> Speichern nur auf 1 TB Speicherplatte A (HDD) Share "3" -> Speichern nur auf 1 TB Speicherplatte B (HDD) Diese Shares dann via SMB verteilen lassen. Share "4" -> Speichern nur auf 2 TB Speicherplatte (HDD) Dieses Share teilen über NFS Einstellung bei VM: Für die VM´s (werden 4 sein) jeweils die "übrige" MVME mit jeweils 250 GB maximieren und Ende. Alle Daten die ich nun in den VM´s Installiere z.B. ein Steam-Spiel auf Share "1" würde zuerst auf die Cache geschrieben werden und dann in der Nacht irgendwann auf die HDD? Wäre das alles so richtig?
  21. Ersteinmal Danke für die Vielen Antworten! Mitlerweile ist der Bauplan zwar komplett anders und ich habe nun auch eine Vorstellung von der Umsetzung. (Wird beim nächsten Lohn nun losgebastelt) Doch ich habe nun noch eine Frage bezüglich der Festplattenverwaltung Meinen Infostand und meine Überlegung habe ich einfach mal als Bild im Anhang beigehangen 😅 Mir ist bekannt, dass ich Festplatten "alleine" durch das Plugin "unassigned devices" direkt freigeben kann, jedoch soweit ich weiß ohne die Cache beschleunigung. (Möchte die HDD per M2 Cache beschleunigen.) Diese Festplatten, die nun "alleine" stehen sollen jedoch aufgrund möglichen Datenverlusstes jedoch noch eine Parität aufweißen. Doch geht das überhaupt und wenn ja wie?! Neue Bitmap.bmp
  22. Diese GPU ist natürlich nicht darauf ausgelegt, dass darauf gezockt wird. Sie hat jedoch den Vorteil das mehrere Nutzer gleichzeitig auf die selbe zugreifen können. (So nach den Berichten von Nvidea) Wenn diese Graka zum zocken verwendet wird ist es wahrscheinlich so, dass die Power nicht 1 zu 1 gerechnet werden kann, als ob diese am Zocker-Pc wäre. Ich vermute hierbei geht gut 40 - 60 % Leistung verloren, dies würde jedoch pro Nutzer dennoch genug Power zum Zocken heißen. (Bei einem Benchmark Test von 3x Client mit dieser Graka hat diese bei einigen Spielen gut abgeschnitten) @Ford Prefect Ja, mein Plan ist es mit Parasec oder einem anderen Programm dies zu empfangen (habe mich noch nicht genau darüber informiert - daher habe ich dort noch eine große Wissenslücke) Daher entstand die Frage, ob diese mit durchschleifen und zocken gut funktioniert. Benchmarks sind ja nur das eine
  23. Aufgrund des Preis-Leistungsverhältnisses. Ich bin auf diese gestoßen, nachdem ich nach "Server Grafikkarte" gestoßen bin. Es scheint, dass du nicht von dieser "begeistert" bist - welche würdest du empfehlen? Die Frage war auf die FIrewall bezogen - ich habe mich wohl etwas unkonkret ausgedrückt. Die Frage wäre anders formuliert: Ob die Bandbreite zwischen Unraid und dem Client per WLan reicht oder ist diese für VM-Gaming zu schwach? (Wegen Fragmente & Co.) Aber erstmal noch Danke für die vielen Antworten 🙂
  24. Servus Liebe Community, ich bin vorkurzen (vor ca. 3 Wochen) auf Unraid gestoßen und habe viel gelesen jedoch ist mir verschiedenes noch unklar. Vielleicht kann mir jemand ein paar (oder sogar alle) Fragen beantworten: Zuerst einmal zum Plan: Ein Server mit dem 2 oder 3 NAS Pattitionen arbeiten und Linux & Windows VM diese VMs sollen auch zum Zocken verwendet werden und wir sind 2 Benutzer. Außerdem, ich habe bereits mehrere GamingPCs gebaut und daher nicht der volle Noob. 😅 Zu der Hardware die ich überlege: (2x) Intel Xeon E5 - 2695V3 Gigabythe Mainboard MD50-LS0 (8x) DDR4 RAM - 2133 P nVidia Tesla K80 Case/ Festplatte (SDDs) / Netzteil überspringe ich einfach mal - Dieses Zeug müsste keinen starken Einfluss machen Die Fragen konkret: ~ Installations / Einrichtung Fragen ~ 1. Unraid wird soweit ich bis jetzt weiß per USB installiert und dieser verbleibt im PC. Benötigt Unraid selbst eine eigene Festplatte? 2. Wenn "1." nein wäre -> Ist es möglich Unraid zu betreiben mithilfe einer M2? 3. Kann man Unraids Grafikanforderung über die interne Grafik berechnen lassen oder benötige ich eine andere Grafikkarte auf PCIe-Slot1 um die Tesla durchzuschleifen? 4. Die Tesla Grafikkarte hat keinen eigenen HDMI Slot & Co. - Kann man diese "richtig" durchschleifen? 4a. Bei Windows 10 (In einem Video gesehen jedoch nur überbrückt mit Leistungseinschränkungen) 4b. Bei Linux? 5. Ist die Hardware - die ich überlege auch Unraid konform? 6. Sind die Festplatten in Unraid selber in Patitionen einrichtbar oder muss ich dies vorher extern Vorbereiten? 7. Beim ersten Start müssen (soweit ich weiß) die Festplatten Validiert werden 7a. Ist dies bei jedem Server-Start so? 7b. Kann ich den Server "normal" herunterfahren und nach z.B. 5 Stunden wieder hoch fahren oder diese Validierung? 7c. Ist diese Validierung ausschaltbar? 8. Benötigt der Unraid Server nach der Ersteinrichtung ein Display oder kann ich nach der Ersteinrichtung stets über den Browser zugreifen? 9. Kann man CD-Laufwerke mit Undraid durchschleifen? ~Client Fragen ~ 10. Wie stark müsste ein Client sein für das Emfangen der Daten von Unraid (VM) - Reicht da ein Raspberry 2 oder 3 oder benötige ich dort einen 4b oder noch stärker? 11. Wie ist es mit dem Anschließen des Servers mit dem Router? Meine Info: 2 Kabel (Lan) zwischen Fritz!Box & Server Nun kann jeder PC auf die VMs & Co über die Fritz!Box zugreifen. 11a. Wird hierbei ein besonderer Anschluss / Kabel benötigt? 11b. Wird zwischen den Geräten ein zusätzliches Verteilergerät benötigt? ~ VM Fragen ~ 12. Für die Benutzung von Windows - Wenn ich in der VM Windows wäre, kann dann meine Freundin gleichzeitig auch auf diese VM zugreifen - mit ihrem eigenen Benutzer oder müssen es zwei verschiedene VMs sein? 13. Wie ist es mit Antivirusprogrammen? 13a. Ist es möglich zB Kaspersky auf Unraid zu installieren und die VMs dahinter sind geschützt oder benötigt jede VM eine eigenes Anti-Virus? 13b. Wie ist es mit Antivirus und Docker-Container? 14. Für VM - Reicht da ein W-Lan Empfang?