MarkusR

Members
  • Posts

    62
  • Joined

  • Last visited

Everything posted by MarkusR

  1. Hallo Unraiders, ich habe seit geraumer Zeit ein Problem mit rclone, in Verbindung mit OneDrive. Ich sichere insgesamt drei OneDrive-Accounts auf meinen Unraid-Server. Zwei der drei Accounts funktionieren tadellos. Seit geraumer Zeit erscheint beim dritten Account folgende Fehlermeldungen: 2024/01/04 01:16:48 ERROR : OneDrive root '': error reading source root directory: unknown object type <nil> 2024/01/04 01:16:48 ERROR : Local file system at /mnt/user/OneDrive: not deleting files as there were IO errors 2024/01/04 01:16:48 ERROR : Local file system at /mnt/user/OneDrive: not deleting directories as there were IO errors 2024/01/04 01:16:48 ERROR : Attempt 1/3 failed with 1 errors and: unknown object type <nil> 2024/01/04 01:16:48 ERROR : OneDrive root '': error reading source root directory: unknown object type <nil> 2024/01/04 01:16:48 ERROR : Local file system at /mnt/user/OneDrive: not deleting files as there were IO errors 2024/01/04 01:16:48 ERROR : Local file system at /mnt/user/OneDrive: not deleting directories as there were IO errors 2024/01/04 01:16:48 ERROR : Attempt 2/3 failed with 1 errors and: unknown object type <nil> 2024/01/04 01:16:49 ERROR : OneDrive root '': error reading source root directory: unknown object type <nil> 2024/01/04 01:16:49 ERROR : Local file system at /mnt/user/OneDrive: not deleting files as there were IO errors 2024/01/04 01:16:49 ERROR : Local file system at /mnt/user/OneDrive: not deleting directories as there were IO errors 2024/01/04 01:16:49 ERROR : Attempt 3/3 failed with 1 errors and: unknown object type <nil> 2024/01/04 01:16:49 INFO : Transferred: 0 B / 0 B, -, 0 B/s, ETA - Errors: 1 (retrying may help) Elapsed time: 0.9s 2024/01/04 01:16:49 Failed to sync: unknown object type <nil> Nach bisheriger Recherche im Internet ist das ein Bug und soll in einer neuen Version behoben werden? Nur warum tritt es nur unter 1 Account auf und die anderen funktionieren immer noch? Habt ihr eventuell noch einen Ansatz? Eine Neuerstellung der Config brachte auch keine Lösung. Ich danke euch im voraus :-)
  2. Hi Zusammen, bei mir hat das Downgrade auch geholfen, danke euch 🙂
  3. Hi Zusammen, ich habe seit einigen Tagen den Pialert Docker installiert und funktionierte soweit korrekt. Gestern habe ich das letzte Update eingespielt. Danach beendete sich der Docker nach ca. 50 Sekunden. Ich habe daraufhin den Docker deinstalliert und noch die übrig gebliebenen Reste manuell gelöscht. Danach habe ich Pialert neu installiert. Jetzt beendet es sich gleich nach dem Start. Im Protokoll des Dockers kam der Hinweis, dass die notification_text.txt nicht vorhanden sei. Ich legte daraufhin unter /mnt/user/appdata/pialert die Unterordner front/api und eine leere notification_text.txt an. Die Fehlermeldung verschwand dann im Log, aber die Grundproblematik bleibt. Hat jemand die gleichen Probleme? Ich vermute fast einen Bug im Pialert, aber vielleicht gibt es ja eine Möglichkeit? text error warn system array login sys.exit(main()) File "/home/pi/pialert/back/pialert.py", line 599, in main send_notifications() File "/home/pi/pialert/back/pialert.py", line 2281, in send_notifications update_api(True) File "/home/pi/pialert/back/pialert.py", line 3100, in update_api write_file(folder + 'notification_text.txt' , mail_text) File "/home/pi/pialert/back/pialert.py", line 3167, in write_file file = open (pPath, 'w', encoding='utf-8') FileNotFoundError: [Errno 2] No such file or directory: '/home/pi/pialert/front/api/notification_text.txt' mkdir: cannot create directory '/run/php': File exists pcap_activate: eth1: No such device exists (SIOCGIFHWADDR: No such device) Traceback (most recent call last): File "/home/pi/pialert/back/pialert.py", line 3471, in <module> sys.exit(main()) File "/home/pi/pialert/back/pialert.py", line 599, in main send_notifications() File "/home/pi/pialert/back/pialert.py", line 2281, in send_notifications update_api(True) File "/home/pi/pialert/back/pialert.py", line 3100, in update_api write_file(folder + 'notification_text.txt' , mail_text) File "/home/pi/pialert/back/pialert.py", line 3167, in write_file file = open (pPath, 'w', encoding='utf-8') FileNotFoundError: [Errno 2] No such file or directory: '/home/pi/pialert/front/api/notification_text.txt' Voiding false (ghost) disconnections Pairing session events (connection / disconnection) Creating sessions snapshot Inserting scan results into Online_History Skipping repeated notifications [2023-02-04 19:22:21] Scan: Nmap for max 150s (2.5min) per device Estimated max delay: 150s (2.5min) [2023-02-04 19:22:21] Scan: Nmap SUCCESS for <IP-Adresse> (1/1) Check if something to report [API] Updating files in /front/api Nothing to do here. Starting nginx: nginx. Permissions check (All should be True) ------------------------------------------------ /config/pialert.conf | READ | True /config/pialert.conf | WRITE | True /db/pialert.db | READ | True /db/pialert.db | WRITE | True ------------------------------------------------ [Setup] Attempting to fix permissions. [Setup] Attempting to fix permissions. [upgradeDB] Re-creating Settings table [upgradeDB] Re-creating Parameters table [2023-02-04 19:28:33] Config: Imported new config [2023-02-04 19:28:33] Process: Start [2023-02-04 19:28:33] Check Internet IP: Retrieving Internet IP: <IP-Adresse> Retrieving previous IP: <IP-Adresse> No changes to perform Skipping Dynamic DNS update [2023-02-04 19:28:33] Scan: Pholus for 600s (10.0min) Pholus scan on [interface] eth1 [mask] <Subnetz> [2023-02-04 19:28:33] Scan: Pholus SUCCESS [2023-02-04 19:28:33] Scan Devices: arp-scan start Processing scan results Devices Detected.......: 2 arp-scan detected..: 0 Pi-hole detected...: +0 New Devices........: 0 Devices in this cycle..: 2 Down Alerts........: 0 New Down Alerts....: 0 New Connections....: 0 Disconnections.....: 0 IP Changes.........: 0 Updating DB Info Sessions Events (connect / discconnect) Creating new devices Updating Devices Info b'' Voiding false (ghost) disconnections Pairing session events (connection / disconnection) Creating sessions snapshot Inserting scan results into Online_History Skipping repeated notifications [2023-02-04 19:28:33] Scan: Nmap for max 150s (2.5min) per device Estimated max delay: 150s (2.5min) [2023-02-04 19:28:33] Scan: Nmap SUCCESS for <IP-Adresse> (1/1) Check if something to report [API] Updating files in /front/api
  4. Hi Zusammen, also bei mir ist ein vbios auf jeden Fall Pflicht. Sonst kann ich meine Grafikkarte nicht durchschleifen. Falls jemand bei einer Single-GPU ein vbios-Dump mit dem oben erwähnten Skript machen muss, habe ich nochmals eine Ergänzung zur oberen Anleitung: - Wechsel ins Bios - Deaktivierung der Resize Bar - Deaktivierung des CSM-Boots -> Wichtig bei mir: keine Reaktivierung von UEFI, einfach alles mit CSM deaktivieren - Booten mit Unraid - Ausführung des oberen Skripts von Spaceinvader - Danach Wechsel ins Bios und die gerade umgesetzten Einstellungen wieder rückgängig machen
  5. @mgutt Definitiv ist das Legacy Boot notwendig, da ich in UEFI mit den anderen Optionen alle möglichen Varianten durch hatte 😅 zur Zeit teste ich die Gaming VM und die finale Einrichtung des Unraid Systems. eventuell teste ich mal andere Kombinationen. Mein Bauchgefühl sagt mir, dass die zwei Booteinstellungen in der syslinux.cfg maßgeblich ausschlaggebend sind. @Weifer super, freut mich, dass ich dir helfen konnte 😊 ich hoffe du bist soweit zufrieden mit dem Ergebnis?
  6. @alturismo / @mgutt ich habe es hinbekommen 🙂 Falls jemand die gleichen Probleme hat folgende Vorgehensweise: - Umstellung der Bootoption von UEFI auf nur legacy im Bios - In Unraid im Bereich Flash und dort bei Unraid OS direkt hinter append die Werte video=efib:off,video=vesafb:off eintragen - In Unraid unter Settings - VM Manager für die Einstellung "PCIe ACS override" both und für " VFIO allow unsafe interrupts:" auf Yes stellen - In Unraid unter Tools - System Devices die Grafikkarte und alles was dazugehört an Vfio binden - Unraid restart - Installation der Community Plugins und dort Installation der User Scripts - Einbinden des Skripts von SpaceInvader zur Erstellung des Vbios der Grafikkarte - Erstellung einer VM, Grafikkarte, deren Soundkarte und gegebenenfalls USB Schnittstellen auswählen - Auswahl des erstellten Vbios - Konfiguration der restlichen VM wie gewünscht - Starten, sich freuen und wie ein 5 Monate alter Hundewelpe vor Freude quietschen Skript von Spaceinvader: #!/bin/bash # Script to dump GPU vbios from any Unraid GPU # by SpaceinvaderOne ##### Read the readme for how to use this script ##### ##### FILL IN THE VARIABLES BELOW ####################################################################### ################### gpuid="0a:09.0" ################### #####Name the vbios for example gtx2080ti.rom ### Naming of the vbios is optional .... if you do not rename it here then the script will name it based off the details found about the gpu dumped ################### vbiosname="rtx2080neu.rom" ################### ##### Location to put vbios (change if you dont want to use below location) if location doesnt exist it will be created for you. ################### vbioslocation="/mnt/user/isos/vbios/" ################### ##### Runs checks on device to see if it is in fact a GPU. Recommended to leave set as "yes" ################### safety="yes" ################### ########## DO NOT CHANGE BELOW THIS LINE ################################################################# gpuid=$(echo "$gpuid" | sed 's/ *$//') gpuid=$(echo "$gpuid" | sed 's/^ *//g') dumpid="0000:$gpuid" mygpu=$(lspci -s $gpuid) disconnectid=$(echo "$dumpid" | sed 's?:?\\:?g') disconnectid2=$(echo "$disconnectid" | sed 's/\(.*\)0/\11/') vganame=$( lspci | grep -i "$gpuid" ) forcereset="no" ########## Script functions ################################################################# checkgpuiscorrect() { mygpu=$(lspci -s $gpuid) || { notvalidpci; exit; } echo "You have selected this device to dump the vbios from" if grep -i 'VGA compatible controller' <<< "$mygpu" ; then if grep -i 'Intel' <<< "$mygpu" ; then echo "This looks like its an integrated INTEL GPU and vbios dump will most likely FAIL" echo "Please select a dedicated GPU to dump vbios from" echo "If you really want to try then rerun script changing variable to safety=off" else echo echo "This does look like a valid GPU to me. Continuing ........." echo fi elif grep -i 'Audio Device' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like an AUDIO device" echo "Maybe you have selected the audio part of your GPU ?" echo "Please edit the script and make sure to put the id of ONLY the VGA part of your GPU" echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are all the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'USB controller' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a USB controller" echo "Some GPUs have a USB part to them. Maybe you selected that ?" echo "Please edit the script and make sure to put the id of ONLY the VGA part of your GPU" echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'Serial bus controller' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a USB type C controller" echo "Some GPUs have a USB type C part to them. Maybe you selected that ?" echo "Please edit the script and make sure to put the id of ONLY the VGA part of your GPU" echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'Network controller' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a NETWORK adapter " echo "Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'Ethernet controller' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a NETWORK adapter " echo "Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'SATA controller' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a SATA controller " echo "Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'Non-Volatile memory controller' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a NVME controller " echo "Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'PCI bridge' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a PCI bridge " echo "Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'Host bridge' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a HOST bridge " echo "Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'SMBus' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a SMBus controller " echo "Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit elif grep -i 'Encryption controller' <<< "$mygpu" ; then echo echo "This doesn't look like a GPU to me. It looks like a Encryption controller " echo "Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit else echo "$mygpu" echo echo "This doesn't look like a GPU to me. Please correct the id and rerun the script." echo "If you are 100 % sure this is the VGA part of your GPU then rerun script changing variable to safety=off" echo echo "These are the GPUs that I can see in your server" lspci | grep -i 'vga' exit fi } notvalidpci() { echo "That is NOT a valid PCI device. Please correct the id and rerun the script" echo echo "These are all the GPUs that I can see in your server. Please choose one of these" lspci | grep -i 'vga' } checklocation() { # check if vbios location exists and if not create it echo echo "Checking if location to put vbios file exists" if [ ! -d "$vbioslocation" ] ; then echo "Vbios folder created at "$mountlocation" " echo mkdir -vp "$vbioslocation" # make the directory as it doesnt exist else echo "Vbios folder "$mountlocation" already exists" echo fi } buildtempvm() { cat > /tmp/dumpvbios.xml << EOF <?xml version='1.0' encoding='UTF-8'?> <domain type='kvm'> <name>dumpvbios</name> <memory unit='KiB'>1048576</memory> <currentMemory unit='KiB'>1048576</currentMemory> <memoryBacking> <nosharepages/> </memoryBacking> <vcpu placement='static'>1</vcpu> <cputune> <vcpupin vcpu='0' cpuset='0'/> </cputune> <os> <type arch='x86_64' machine='pc-q35-3.0'>hvm</type> </os> <cpu mode='host-passthrough' check='none' > </cpu> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/local/sbin/qemu</emulator> <controller type='pci' index='1' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='1' port='0x8'/> </controller> <hostdev mode='subsystem' type='pci' managed='yes' xvga='yes'> <driver name='vfio'/> <source> <address domain='0x${dumpid:0:4}' bus='0x${dumpid:5:2}' slot='0x${dumpid:8:2}' function='0x${dumpid:11:1}'/>; </source> </hostdev> </devices> </domain> EOF } isgpuprimary () { # Check Primary GPU and wether gpu has already been disconnected # Disconnect GPU and set server to sleep mode then rescan bus if [ "$forcereset" = "yes" ] ; then echo "Disconnecting the graphics card" echo "1" | tee -a /sys/bus/pci/devices/$disconnectid/remove echo "Entered suspended (sleep) state ......" echo echo " PRESS POWER BUTTON ON SERVER TO CONTINUE" echo echo -n mem > /sys/power/state echo "Rescanning pci bus" echo "1" | tee -a /sys/bus/pci/rescan echo "Graphics card has now sucessfully been disconnected and reconnected" echo "It is now ready to begin the dump vbios process" echo elif [ "$forcereset" = "no" ] ; then echo "I will try and dump the vbios without disconnecting and reconnecting the GPU" echo "This normally only works if the GPU is NOT the Primary or the only GPU" echo "I will check the vbios at the end. If it seems wrong I will then retry after disconnecting the GPU" echo else echo "forcereset is set as "$forcereset" this is not a recognised option" echo "Please set forcereset to either yes or no " exit fi } startstopvm() { echo "Defining temp vm with gpu attached" virsh define /tmp/dumpvbios.xml echo "Starting the temp vm to allow dump" virsh start dumpvbios echo "Waiting for a few seconds ....." echo sleep 9 echo "Stopping the temp vm " virsh destroy dumpvbios echo "Removing the temp vm" virsh undefine dumpvbios } dumpvbios() { # if no name was given for vbios then make name from vga name from lspci if [ "$vbiosname" = "gpu vbios.rom" ] ; then vbiosname=$( echo "$vganame" | awk 'NR > 1 {print $1}' RS='[' FS=']' ) fi echo cd /sys/bus/pci/devices/"$dumpid"/ echo 1 > rom echo echo "Okay dumping vbios file named "$vbiosname" to the location "$vbioslocation" " cat rom > "$vbioslocation""$vbiosname" || needtobind echo 0 > rom } needtobind() { echo echo "Um.... somethings gone wrong and I couldn't dump the vbios for some reason" echo "Sometimes when this happens all we need to do to fix this is 'stub' or 'bind to the vfio' the gpu and reboot the server" echo echo "This can be done in Unraid 6.8.3 with the use of the vfio config plugin or if you are on Unraid 6.9 or above it can be done" echo "directly from the gui in Tools/System Devices .....So please do this and run the script again" echo exit } cleanup() { if [ -e /tmp/dumpvbios.xml ] ; then rm /tmp/dumpvbios.xml fi } checkvbios() { filepath="$vbioslocation""$vbiosname" if [ -n "$(find "$filepath" -prune -size -2000c)" ]; then needtobind elif [ -n "$(find "$filepath" -prune -size -70000c)" ]; then printf '%s is less than 70kb\n' "$filepath" echo "This seems too small. Probably the GPU is Primary and needs disconnecting and reconnecting to get proper vbios" echo echo "Running again" forcereset="yes" buildtempvm isgpuprimary startstopvm dumpvbios cleanup if [ -n "$(find "$filepath" -prune -size -70000c)" ]; then printf '%s is less than 70kb\n' "$filepath" echo "This seems small but maybe its correct. Please try it. All done !" exit fi echo echo "vbios seems to be correct. All done :)" exit else echo echo "vbios seems to be correct. All done :)" exit fi } ########## run functions ################################################################# if [ "$safety" = "no" ] ; then echo "Safety checks are disabled. Continuing ......" else checkgpuiscorrect fi checklocation buildtempvm isgpuprimary startstopvm dumpvbios checkvbios exit
  7. Hi zusammen, das Plugin habe ich nicht in Betrieb. ich hätte noch eine Nvidia GTX 680 da. Würde es was helfen diese als zweite Karte einzubauen? In einen der unteren PCI Express Slots?
  8. @mgutt beim AMD System habe ich, wie beim jetzigen System, das Bios gesehen und Teile von Unraid. Bei Unraid bleibt die Anzeige irgendwann stehen, also sieht dann aus wie eingefroren. auf dem neuen System hatte ich bisher Windows 11 nativ laufen. Da ich aber von Unraid mehr und mehr begeistert bin, wollte ich es auch auf diesem System haben. was mir beim jetzigen System auffällt, bevor die Anzeige von Unraid nicht mehr weiter geht, steht noch die Hardware ID meiner Grafikkarte und die Zeile vgaarb: changed VGA decodes: olddecodes=io+mem, decodes=io+mem:owns=io+mem. ich weiß nicht, ob das etwas zu sagen hat. Muss ich in der VM eventuell mit multifunction arbeiten?
  9. @alturismo vielen Dank für deine Hilfe 🙂 nur zur Sicherheit. Das System mit der AMD Grafikkarte lief gleich auf Anhieb. Nur mein neues Zweitsystem mit der Nvidia will nicht. Die von dir genannten Einstellungen im BIOS habe ich gesetzt. Auch das Booten mit uefi. Die unterschiedlichen Machine Typen in der VM hab ich auch schon durch. gibt es da noch LOGs, die wir auswerten können?
  10. Hallo liebe Community, ich habe mir mittlerweile einen zweiten Unraid-Server aufgesetzt und möchte meine GPU in eine Windows 11 VM durchreichen. System: AMD Ryzen 5800x Asus x570 Mainboard RTX 2080 Dual Monitore HDMI / DisplayPort-Anschluss Unraid Version 6.11.2 Bei meinem ersten Unraid-System mit einer Single GPU AMD rx5500xt hat der Passtrough korrekt funktioniert. Starte ich aber im neuen System die VM, sieht man beim Monitor, der mittels HDMI angeschlossen ist, ein kurzes flackern und dann bekommt er kein Video Signal mehr. Folgende Punkte habe ich bisher konfiguriert: - Legacy Boot für den Unraid Stick - IOMMU im Bios aktiviert - In Unraid im VM-Manager PCIe ACS override auf Both und VFIO allow unsafe interrupts auf Yes gestellt - In Unraid unter SystemInfo alles zu meiner Grafikkarte an Vfio gebunden - Das Vbios aus meiner Grafikkarte mit einem Skript von Spaceinvader in Unraid eingefügt und das vbios erstellen lassen - In der Windows 11 VM meine Grafikkarte, Vbios, deren Soundkarte und die zwei USB-Ports zugewiesen Ich hoffe ihr könnt mir da weiterhelfen 🙂 Im Anhang habe ich noch Screenshots der VM GUI und der Vfio Bindungen beigefügt. XML-File meiner VM: <?xml version='1.0' encoding='UTF-8'?> <domain type='kvm'> <name>Windows 11</name> <uuid>31f29702-0a7b-f89a-abd4-84fd69a46770</uuid> <metadata> <vmtemplate xmlns="unraid" name="Windows 11" icon="windows11.png" os="windowstpm"/> </metadata> <memory unit='KiB'>4194304</memory> <currentMemory unit='KiB'>4194304</currentMemory> <memoryBacking> <nosharepages/> </memoryBacking> <vcpu placement='static'>4</vcpu> <cputune> <vcpupin vcpu='0' cpuset='0'/> <vcpupin vcpu='1' cpuset='8'/> <vcpupin vcpu='2' cpuset='1'/> <vcpupin vcpu='3' cpuset='9'/> </cputune> <os> <type arch='x86_64' machine='pc-i440fx-7.1'>hvm</type> <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi-tpm.fd</loader> <nvram>/etc/libvirt/qemu/nvram/31f29702-0a7b-f89a-abd4-84fd69a46770_VARS-pure-efi-tpm.fd</nvram> </os> <features> <acpi/> <apic/> </features> <cpu mode='host-passthrough' check='none' migratable='on'> <topology sockets='1' dies='1' cores='2' threads='2'/> <cache mode='passthrough'/> <feature policy='require' name='topoext'/> </cpu> <clock offset='localtime'> <timer name='rtc' tickpolicy='catchup'/> <timer name='pit' tickpolicy='delay'/> <timer name='hpet' present='no'/> </clock> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/local/sbin/qemu</emulator> <disk type='file' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source file='/mnt/user/domains/Windows 11/vdisk1.img'/> <target dev='hdc' bus='virtio'/> <boot order='1'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/> </disk> <disk type='file' device='cdrom'> <driver name='qemu' type='raw'/> <source file='/mnt/user/isos/Win11_German_x64.iso'/> <target dev='hda' bus='ide'/> <readonly/> <boot order='2'/> <address type='drive' controller='0' bus='0' target='0' unit='0'/> </disk> <disk type='file' device='cdrom'> <driver name='qemu' type='raw'/> <source file='/mnt/user/isos/virtio-win-0.1.225-2.iso'/> <target dev='hdb' bus='ide'/> <readonly/> <address type='drive' controller='0' bus='0' target='0' unit='1'/> </disk> <controller type='pci' index='0' model='pci-root'/> <controller type='ide' index='0'> <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/> </controller> <controller type='virtio-serial' index='0'> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/> </controller> <controller type='usb' index='0' model='ich9-ehci1'> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/> </controller> <controller type='usb' index='0' model='ich9-uhci1'> <master startport='0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/> </controller> <controller type='usb' index='0' model='ich9-uhci2'> <master startport='2'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/> </controller> <controller type='usb' index='0' model='ich9-uhci3'> <master startport='4'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/> </controller> <interface type='bridge'> <mac address='52:54:00:46:d2:ce'/> <source bridge='br0'/> <model type='virtio-net'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/> </interface> <serial type='pty'> <target type='isa-serial' port='0'> <model name='isa-serial'/> </target> </serial> <console type='pty'> <target type='serial' port='0'/> </console> <channel type='unix'> <target type='virtio' name='org.qemu.guest_agent.0'/> <address type='virtio-serial' controller='0' bus='0' port='1'/> </channel> <input type='mouse' bus='ps2'/> <input type='keyboard' bus='ps2'/> <tpm model='tpm-tis'> <backend type='emulator' version='2.0' persistent_state='yes'/> </tpm> <audio id='1' type='none'/> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x09' slot='0x00' function='0x0'/> </source> <rom file='/mnt/user/isos/vbios/rtx280.rom'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0' multifunction='on'/> </hostdev> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x09' slot='0x00' function='0x1'/> </source> <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x1'/> </hostdev> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x09' slot='0x00' function='0x2'/> </source> <address type='pci' domain='0x0000' bus='0x00' slot='0x08' function='0x1'/> </hostdev> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x09' slot='0x00' function='0x3'/> </source> <address type='pci' domain='0x0000' bus='0x00' slot='0x09' function='0x1'/> </hostdev> <hostdev mode='subsystem' type='usb' managed='no'> <source> <vendor id='0x046d'/> <product id='0xc08b'/> </source> <address type='usb' bus='0' port='1'/> </hostdev> <hostdev mode='subsystem' type='usb' managed='no'> <source> <vendor id='0x046d'/> <product id='0xc33f'/> </source> <address type='usb' bus='0' port='2'/> </hostdev> <memballoon model='none'/> </devices> </domain>
  11. Hatte den Windows Schnellstart auch mal deaktiviert. Es scheint jetzt zu laufen. Ich konnte in meiner ursprünglichen VM den AMD Treiber 22.6.1, also den neuesten zur Zeit deinstallieren, dann ist nochmal Unraid neu gestartet und ich habe noch die alten AMD Adrenalin Treiber 21.3.2 installiert. Jetzt kann ich die VM wieder normal neu starten. Dabei spielt es keine Rolle, ob die Grafikkarte an Vfio gebunden ist oder nicht, Windows Schnellstart aktiv/inaktiv ist oder im Bios Resize Bar oder RAM Optimierungen eingestellt sind. Bei einer neuen VM und Windows 11 Neuinstallation funktioniert alles, bis man die Ethernet-Treiber installiert und die VM Updates ziehen kann. Sobald die Microsoft Standard Grafiktreiber installiert werden, bleibt das Bild schwarz. Da werde ich noch testen, ob ich vor dem Internetzugang die AMD 21.3.2 Treiber davor installieren kann und wie es sich dann verhält. Aber es scheint an der Treiberversion zu hängen.
  12. @mgutt Ursprünglich war die GPU nicht an vfio angebunden. Hatte das aber testweise eingestellt ohne Erfolg. Ich habe dann eine neue VM mit älteren AMD Radeon Treibern installiert und die konnte ich dann auch wieder neu starten. Wollte jetzt neu eine VM einrichten mit allen Programmen, etc. jetzt bleibt aber auf einmal der Bildschirm schwarz, wenn Windows die eigenen Grafikkartentreiber installieren will. Irgendwie komisch. Habe auch mal das Resize BAR und das RAM Tuning im Bios ausgeschaltet. Kam alles, wie gesagt nach dem letzten Unraid Update. Ein Ubuntu klappt beispielsweise beim Neustart. Wenn die LOGs auf den Stick gespeichert werden, muss ich dort die syslog unter /boot kontrollieren? Dort habe ich mal nach "errors" gesucht, aber auch nicht mehr gefunden.
  13. Ich habe gerade nochmal eine neue VM aufgesetzt. Anstatt dem Achine-Typ i440fx mal den Q-35 6.2 probiert. Es liegt an den AMD Treibern der Radeon RX 5500 XT. Selbst als die VM alle Windows Updates und den Microsoft Treiber der Grafikkarte erkannt hatte, war ein Neustart problemlos möglich. Dann habe ich die AMD Grafiktreiber installiert und nach der Installation die VM neu gestartet und Problematik war wieder da. Gibt es da einen Tipp? 😞
  14. @mgutt ja gerne. Habe "Mirror syslog to flash" auf yes gestellt, den Fehler reproduziert und nochmal den Diagnoselauf gemacht. Zumindest im Syslog sind mir keine neuen Fehler aufgefallen. Ich habe dann auch mal probiert ein Ubunt mit durchgereichter Grafikkarte neu zu starten und das ging ohne Probleme. unraidserver-diagnostics-20220713-1953.zip
  15. Hallo liebes Support-Team, ich habe Unraid auf Version 6.10.3 aktualisiert. Davor hatte ich keine Probleme mit meinen VMs. Wenn ich jetzt meine Windows 11 VM neu starte, wird der Bildschirm kurz schwarz und dann startet Unraid komplett neu. Nach dem Neustart startet er den Parity Check. Also scheint der VM-Neustart das Unraid unsauber neu zu starten. In dieser VM schleife ich meine Grafikkarte durch. Ich habe den Diagnostic-Scan durchlaufen lassen. Am Anfang sehe ich dort im syslog vor dem CPU Microcode Fehler und das MCE meinen Prozessor nicht unterstützt. Ausschnitt: [Hardware Error]: Machine check events logged Jul 12 21:51:18 UnraidServer kernel: mce: [Hardware Error]: CPU 1: Machine Check: 0 Bank 5: bea0000000000108 Jul 12 21:51:18 UnraidServer kernel: mce: [Hardware Error]: TSC 0 ADDR 1f8024996d5b0 MISC d012000200000000 SYND 4d000000 IPID 500b000000000 Jul 12 21:51:18 UnraidServer kernel: mce: [Hardware Error]: PROCESSOR 2:870f10 TIME 1657655461 SOCKET 0 APIC 2 microcode 8701021 Jul 12 21:51:18 UnraidServer mcelog: ERROR: AMD Processor family 23: mcelog does not support this processor. Please use the edac_mce_amd module instead. Kann das damit zu tun haben? Wie gesagt, vor dem Unraid Update hat alles noch funktioniert.
  16. Hallo liebe Community, ich habe den Docker-Container "Conan Exiles" heruntergeladen und die Standard-Konfigurationen belassen. Lediglich in der Engine.ini den Servername angepasst. Danach hab ich die Ports UDP 27015, 27016, 7777, 7778 und TCP 7777 in der Firewall des Routers freigegeben. Im Spiel selber wird mir auch der Server angezeigt. Wenn ich mich mit diesem verbinde, erscheint auch der Ladebalken mit einem Fortschritt, stagniert jedoch irgendwann, bis ein Timeout erfolgt und das Spiel wieder ins Hauptmenü geht. Wenn ich bei Direktverbindung meine lokale IP-Adresse und Port eingebe, komme ich perfekt auf den Server. Wenn ich die IPv4-Adresse meines DS-Lite mit dem Port angebe, der auch im Router freigegeben ist, sagt er irgendwann "Server nicht gefunden" Fehlen mir da noch Ports zur Freigabe? Da mein Server im Spiel ersichtlich ist, scheint sich dieser irgendwo ja zu registrieren?
  17. Hallo Zusammen, ich habe jetzt diese Festplatte in einem Windows-System eingebaut und mal ein CrystalDiskInfo drüber laufen lassen. Dort wird die NVME mit 99% Gut angezeigt. Somit denke ich auch, dass sich BTRFS und NVME nicht sonderlich gut vertragen.
  18. Hallo Zusammen, vielen Dank für eure Hilfe. Die letzte Erkenntnis mit NVMe ist in der Tat auffällig. Ich habe noch einen primären Cache-Pool mit einer SATA-SSD. Dort liegen meine VMs. Dort habe ich noch keine Probleme. Die NVMe war noch leer und als Notfall gedacht. @DataCollector Wenn ich auf die Platte klicke, kann ich nur Einstellungen zu SMART konfigurieren, aber keine SMART-Werte auslesen. Nur Skrub-Werte. Diese zeigen 0 Errors.
  19. Hi Zusammen, vor ca. 1 Woche hat mein Unraid folgende Meldung ausgegeben: Event: Unraid Secondvmdrive disk message Subject: Warning [UNRAIDSERVER] - Cache pool BTRFS missing device(s) Description: KINGSTON_SA1000M8480G_50026B7682EAB561 (nvme0n1) Importance: warning Das Cache-Laufwerk war daraufhin auch nicht mehr in Unraid ersichtlich. Ich dachte mir, gut Festplatte kaputt, bis ich heute, als ich diese ausbauen wollte, gesehen hab, dass die Platte auf einmal wieder da war. Der Scrub Status meldet 0 Errors. Bei der Diagnose bringt er bei Smart Errors, sehe da aber keine Details. Ich habe mal das Smart-LOG und Syslog beigefügt. Kann man irgendwie feststellen, ob die Platte irgendwie beschädigt ist, oder was das Problem war? syslog.txt KINGSTON_SA1000M8480G_50026B7682EAB561-20220312-2059 secondvmdrive (nvme0).txt
  20. @ich777 Super, vielen Dank. Probleme sind behoben 🙂 Win10 Gaming VM scheint soweit auch ordnungsgemäß zu laufen und kann restartet werden. Genau, ich habe eine rx 5500xt Grafikkarte. Bis jetzt scheint das 6.10.0-rc2 sauber zu laufen. Die Tage prüfe ich noch meine Mac-Umgebungen. Danke dir 🙂
  21. Hi Zusammen, ich habe gerade mein System auf die Version 6.10.0-rc2 aktualisiert. Als Startoption wählte ich direkt Unraud OS, also nicht mit GUI. Trotzdem lädt er mir nach dem Start die Grafikkartentreiber. Da ich nur eine Grafikkarte habe, kann ich diese nun nicht mehr durchreichen. Vor dem Unraid-Update auf die Version 6.10.0-rc2 hat noch alles funktioniert. Ich meinte es gab mal ein Plugin, mit dem ich Grafikkartentreiber aktivieren / deaktivieren konnte und auch die Problematik mit dem VM-Neustart bei durchgeschleifter Grafikkarte beheben konnte. Mir fällt aber der Name nicht mehr ein. Ich hab zwar das Plugin AMD-Vendor-Reset gefunden, weiß aber nicht, ob es das richtige Tool für dieses Problem ist. Ich hoffe, Ihr habt mir da einen Tipp 🙂
  22. Er hatte mir da tatsächlich ein Raid1 draus gemacht. Gut bei einem Raid1 sollte dann die kleinere Festplatte die maximale Kapazität darstellen. Allerdings hat er bei mir die genannte Konstellation hervorgebracht. Ich habe die kleinere jetzt in einen separaten Pool genommen und die Kapazitäten sind jetzt auch wieder normal. Allerdings kann ich diese Platte jetzt nicht auch noch mit /mnt/domains verknüpfen, oder? Hier würde mir jetzt als einzige Lösung einfallen bei einer VM beim Pfad zur vmdisk direkt /mnt/<poolname> anzugeben, oder?
  23. @Ford Prefect @mgutt Erstmal vielen lieben Dank für die Erläuterungen und die Zeit, die ihr euch für mich genommen habt. Finde ich toll Ok, jetzt hat es Klick gemacht. Ich habe dann auch den domains Ordner auf der vmdrive-Disk dann gesehen. Dort habe ich dann die VMs wieder integriert. Für die Zukunft habe ich mir das mit den Dienst-Deaktivierungen und dem Mover hinter die Ohren geschrieben. Da war ich zu Linux classic like unterwegs. Aber die VMs leben noch 🙂 Noch eine letzte Frage zu den Pools. Ich habe zu der 2TB SSD noch eine 450GB MV2. Diese habe ich dem Pool hinzugefügt. Da Unraid so kein Raid direkt kennt, dachte ich, der Speicher wird dann erweitert. Im Pool steht auch Gesamtspeicher 2,5 TB. Was mich jedoch wundert ist der Speicher, der im Gesamten verbraucht wird. Die vmdisks im domains-Ordner sind 1,3 TB groß. Im Web-Frontend unter Main wird mir jetzt jedoch ein Verbrauch von 1,5 TB angezeigt und noch 7GB freier Festplattenplatz. Bedeutet es, dass das Hinzufügen einer kleineren Platte somit keine gute Idee war? Im Internet habe ich Aussagen vorgefunden, dass der Speicherplatz normalerweise so groß, wie die kleinste Festplatte im Pool ist und man es nicht tun sollte. Allerdings verwundert es mich, dass er bei mir dann trotzdem 2,5 TB Gesamtgröße anzeigt.
  24. oh... das mit dem VM-Dienst war mir so nicht bewusst. Ich schaue mal, ob er nach dem mv dann was übrig gelassen hat. Hmm... ich vermute mal eher, dass ich das mit dem user-Share noch nicht ganz verstanden habe. Also der domains Ordner liegt ja unter /mnt/user/domains. Mein Pool ist nach der Erstellung in /mnt/vmdrive gemountet. Wenn ich ja jetzt die VMs umziehe, also die vdisks in diesem Fall, muss ich doch in den Settings von jeder VM den Pfad entsprechend auf /mnt/vmdrive/<VM-Ordner> anpassen, oder stehe ich da gerade auf dem Schlauch?
  25. Genau, die VMs existieren schon auf dem Array, aber da nur HDDs, nicht wirklich performant. Ich habe jetzt im Share domains die Option "Use cache pool (for new files/directories)" auf only gestellt und meinen Pool unter "Select cache pool:" ausgewählt. Gerade ziehe ich auf der Shell mit mv * die VMs auf die SSD um. Allerdings hab ich das Array laufen lassen, da ich ja sonst nicht auf die Platten komme, oder? Wenn die VMs umgezogen sind, kann ich den Pfad in den Einstellungen zu den vdisks dann auch auf /mnt/user/domains belassen?