Jump to content
LAST CALL on the Unraid Summer Sale! 😎 ⌛ ×

hawihoney

Members
  • Posts

    3,511
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. That's what I found out exactly. See above.
  2. Why should an average user click on help if the text "Default file system format" is clear enough? But the problem is: It's labeled wrong, at least misleading. IMHO this label should be changed to "Default file system format (arrays)" or something like this. And if you consider a change. Why not add a second option "Default file system format (pools)" and preset it with btrfs? That would it make clear for anyone.
  3. Thanks. Please change the label (Default file system). It's confusing then. Didn't find it. Where should I set it? The pool or the individual pool device? I'm pretty sure that I looked before trusting the default setting.
  4. I double checked but could not find a way to set the file system of the pool. So I trusted the default setting (XFS). Something must have changed during the years, because my old pool has XFS (see image below). I suggest to change that wording - the label - to something more correct like "Default filesystem for array devices" !!! Time for a third reboot to change that. BTRFS is no option here ... Look at that temperature. The XFS pool is in use. The BTRFS pool is used as backup once a day and not in use otherwise. It's sleeping currently.
  5. This setting is default: New single-device pool gets formatted as BTRFS. Why? Is there a hidden setting somewhere else? Thanks.
  6. With these settings in syslinux.cfg the second NVMe was missing completely. After removing this setting this NVMe is still not visible. Looking like an hardware error. I remember these kinds of errors years ago. I could solve that with Shutdown/Restart instead of Reboot. Next time I will try Shutdown/Restart again. ***EDIT*** Couldn't wait. Did a complete shutdown and did restart with the Powerknob on the Supermicro case. Bingo. NVMe2 is back again. I must remember this. Never do a reboot on my system, shutdown the system completely instead.
  7. The interesting part is that this device was available after reboot for a short period of time. And after that it was gone silently. This combo was running happily for years with previous Unraid versions. Is this correct? I will reboot then and report. Thanks.
  8. Yes. I always wanted both NVMe as a 2-device pool. But I don't trust BTRFS and ZFS seems way to complicated to me. So I replicate the first pool device to the second one mounted thru Unassigned Devices via User Scripts. With multi-Array support - whenever it will arrive - I will change that to a 2-device Unraid array.
  9. My system has two NVMe attached to the motherboard. This combo worked throughout the latest releases without any problems. With the installation of 6.12.13 one of the two NVMe throws errors now: Aug 27 08:19:17 Tower unassigned.devices: Mounting partition 'nvme1n1p1' at mountpoint '/mnt/disks/NVMe2'... Aug 27 08:19:17 Tower unassigned.devices: Mount cmd: /sbin/mount -t 'xfs' -o rw,relatime,discard '/dev/nvme1n1p1' '/mnt/disks/NVMe2' Aug 27 08:19:17 Tower kernel: XFS (nvme1n1p1): Mounting V5 Filesystem Aug 27 08:19:17 Tower kernel: XFS (nvme1n1p1): Ending clean mount Aug 27 08:19:17 Tower unassigned.devices: Successfully mounted '/dev/nvme1n1p1' on '/mnt/disks/NVMe2'. Aug 27 08:19:21 Tower emhttpd: shcmd (197): /usr/local/sbin/mount_image '/mnt/pool_nvme/system/docker/' /var/lib/docker 10 Aug 27 08:19:24 Tower emhttpd: shcmd (214): /usr/local/sbin/mount_image '/mnt/pool_nvme/system/libvirt.img' /etc/libvirt 1 Aug 27 08:35:19 Tower emhttpd: spinning down /dev/nvme1n1 Aug 27 08:35:19 Tower emhttpd: sdspin /dev/nvme1n1 down: 25 Aug 27 12:34:49 Tower kernel: nvme nvme1: controller is down; will reset: CSTS=0xffffffff, PCI_STATUS=0xffff Aug 27 12:34:49 Tower kernel: nvme nvme1: Does your device have a faulty power saving mode enabled? Aug 27 12:34:49 Tower kernel: nvme nvme1: Try "nvme_core.default_ps_max_latency_us=0 pcie_aspm=off pcie_port_pm=off" and report a bug Aug 27 12:34:49 Tower kernel: nvme 0000:09:00.0: Unable to change power state from D3cold to D0, device inaccessible Aug 27 12:34:49 Tower kernel: nvme nvme1: Removing after probe failure status: -19 Aug 27 12:34:49 Tower kernel: nvme1n1: detected capacity change from 1953525168 to 0 Aug 27 13:48:39 Tower kernel: XFS (nvme1n1p1): metadata I/O error in "xfs_imap_to_bp+0x50/0x70 [xfs]" at daddr 0x3ae0bca0 len 32 error 5 Aug 27 13:48:39 Tower kernel: XFS (nvme1n1p1): metadata I/O error in "xfs_imap_to_bp+0x50/0x70 [xfs]" at daddr 0x3ae0bca0 len 32 error 5 Aug 27 13:48:39 Tower kernel: XFS (nvme1n1p1): metadata I/O error in "xfs_imap_to_bp+0x50/0x70 [xfs]" at daddr 0x3ae0bca0 len 32 error 5 Aug 27 13:48:39 Tower kernel: XFS (nvme1n1p1): metadata I/O error in "xfs_imap_to_bp+0x50/0x70 [xfs]" at daddr 0x3ae0bca0 len 32 error 5 Aug 27 13:48:39 Tower kernel: XFS (nvme1n1p1): metadata I/O error in "xfs_imap_to_bp+0x50/0x70 [xfs]" at daddr 0x3ae0bca0 len 32 error 5 Aug 27 13:49:03 Tower kernel: XFS (nvme1n1p1): log I/O error -5 Aug 27 13:49:03 Tower kernel: XFS (nvme1n1p1): Filesystem has been shut down due to log error (0x2). Aug 27 13:49:03 Tower kernel: XFS (nvme1n1p1): Please unmount the filesystem and rectify the problem(s). Should I go back to to the previous Unraid release? Diagnostiics attached. Thanks in advance. tower-diagnostics-20240827-1549.zip
  10. Ooops, that it was. Thanks a lot. I switched that to once a month to avoid repeating notifications. Wish I could set it to notify once.
  11. I doubt that. My main server is at over 3 month uptime currently. Still no update notification. There must be something else that's failing.
  12. You're talking about these? Still no update banner in my browser. First time in many years as I wrote.
  13. I just noticed that there is a new Unraid release 6.12.11 by accident. Is there a reason why my three Unraid installations don't show the update banner? It's the first time in many, many years that the update banner doesn't show up. Diagnostics of bare metal server attached. tower-diagnostics-20240724-0718.zip
  14. Ich habe keine SAS3 Backplane, leite das also aus der Doku ab. SAS3 Modelle haben 4 (EL1) oder 8 (EL2) SFF-8643 Anschlüsse in Paaren angeordnet. Jedes Paar kann wahlfrei Eingang oder Ausgang sein. Der (EL1) oder die (EL2) Expander verhalten sich quasi wie Switche. Schließ einfach beide Ausgänge des 9300-8i an ein Paar der EL1 Backplane an. EL2 ist für Failover gedacht (z.B. 2 HBAs, einer fällt aus) EL1 und EL2 können kaskadieren (mehrere Backplanes hintereinander geschaltet) EL2 kann somit beides (mehrere Backplanes kaskadieren und Failover mit 2 HBAs) Doku zur Backplane hier: https://www.supermicro.com/manuals/other/BPN-SAS3-846EL.pdf Diese Kombination ist professionelles Server Equipment.
  15. Bei mir ist das ein SFF-8643/SFF-8087 Kabel. Was hattest Du noch mal für eine Backplane? Ausgang 9300-8i: 8643 (intern) Eingang Backplane: 8087 (BPN-SAS2-EL)
  16. Du denkst Du kannst das besser als der Linux Scheduler? Ist natürlich Deine Entscheidung. Viel Erfolg dabei.
  17. Die 9300-8i bzw. 8e sind standardmäßig im IT Modus. Ich habe sogar 2 neue günstig aus China bei eBay geschossen. Einfach eingebaut, lief (ohne Gewähr). Bei Gebrauchtkauf kann eine Kontrolle nicht schaden. Ich wundere mich gerade über die vielen verschiedenen passiven Lüfterbleche auf den HBAs diesen Typs bei eBay ... seltsam. Das Flashen ist hier irgendwo detailliert für Unraid beschrieben. Danach bin ich bei allen 9300ern vorgegangen um die Firmware zu aktualisieren. Da gibt es aber schon lange nix Neues mehr. Muss mal schauen ob ich das finde. Ich post es dann hier.
  18. Ich nutze seit vielen Jahren die Magenta App auf einem Fire-TV 4K Ultra Stick. Da ich auch Plex auf dem selben Stick nutze ist das eine sehr gute Abdeckung. Ich muss seit damals 5 EUR pro Monat zusätzlich zu meinem DSL Vertrag zahlen.
  19. Schau mal hier. Diverse Optimierungsmechanismen für Windows VMs werden hier explizit beschrieben: https://docs.unraid.net/unraid-os/manual/vm-support/ Im Übrigen stehe ich nach wie vor zu meinen oben getroffenen Aussagen bzgl. CPU Passthrough ... Ob Threads zwischen 8 Kernen springen oder 128 spielt überhaupt keine Rolle. Technisch ist das ein Kontext-Wechsel des Instruction Pointers und den Registern sowie Pages. Das ist egal wohin der Wechsel erfolgt - ob zu Kern/HT #4 oder #112. In dem einen Fall stehen aber nur 8 zur Auswahl, im anderen Fall 128. Ist wie am Buffet. Wenn von den 8 Schüsseln gerade 2 leer sind ist das blöder als bei 128 Schüsseln
  20. Da stimmt etwas nicht. Guck mal in meinem Thread (siehe unten). Der ganze 19" Schrank kommt im Idle nicht über 268W. Teste mal wie Deine CPU eingestellt ist. Ich verwende beim Booten per User Script den Powersave Governor (/etc/rc.d/rc.cpufreq powersave) - sonst keine weiteren Stromsparmechanismen: Hier mein Schrank: Ich halte das in Deinem Fall, zumal bei schlafenden Platten, für viel zu hoch. Wie ist denn die CPU-Auslastung? Ich bin z.B. wieder von SABnzbd zurück zu NZBGet da der Verbrauch durch dieses Python Geraffel bei mir erheblich mehr Saft zog als das hoch optimierte NZBGet. Das ist der aktuelle Verbrauch des ganzen 19" Schrankes und da läuft aktuell Einiges. Die Spitze ist die Maintenance in der Nacht:
  21. Ich habe den Vermutung, dass hier die zu erstellende(n) vDisks sowie der Ordner für mountable ISOs verwechselt wird. Exakt beschrieben wird das im Hilfesystem zu den VM Einstellungen. Der Pfad mag heute standardmäßig anders lauten - muss also entsprechend angepasst werden. Ich komme aus der Unraid Uralt Zeit und dort gab es das alles noch nicht und ich habe meine eigenen Ordner/Shares verwendet: Standardmäßig einzustellen in den VM Settings: Für jede VM anzupassen:
  22. Den Hinweis habe ich jetzt nicht verstanden. Aber egal. Unraid verwendet ausschließlich Software RAIDs. Die Schreibgeschwindigkeit kann einfach nicht, außer beim Schreiben durch den Linux Block/Buffer Cache im RAM, signifikant schneller sein als die langsamste Platte im RAID1 Verbund. Die Lesegeschwindigkeit kann einfach nicht, außer beim Lesen durch den o.g. Cache, signifikant schneller sein als die schnellste Platte im RAID1 Verbund. Das mit der "schnellsten" Platte ist kein Vertipper. Die RAID Systeme kennen ja die Drive Characteristics und können die Zugriffe bei RAID1 entsprechend anpassen. Das "signifikant" habe ich bewusst geschrieben, denn im Real-World Schreiben/Lesen und damit meine ich nicht dd, gibt es noch die Nickeligkeiten mit Metadaten und den eigentlichen Daten (was IMHO u.a. den Spass mit BTRFS versaut). Auch das kann und wird entsprechend auf die Platten im Verbund (nicht RAID 0/1) verteilt. Dadurch ergeben sich Unterschiede. Aber von 2x oder /2 kann keine Rede sein. Ich lasse mich aber gerne eines Besseren belehren. So kenne ich das jedenfalls und so habe ich es bisher immer erlebt.
  23. Ich habe das Gefühl, dass hier teilweise RAID0 und RAID1 vertauscht werden. Ich empfehle für einen kurzen Überblick über Performance und Ausfallsicherheit die beiden Wikipedia Artikel. Die beschreiben beide Varianten sehr gut - auch den Sonderfall "Verdoppelung der Leseleistung" bei der Verwendung von RAID1 und entsprechenden Controllern: https://de.wikipedia.org/wiki/RAID#RAID_0:_Striping_–_Beschleunigung_ohne_Redundanz https://de.wikipedia.org/wiki/RAID#RAID_1:_Mirroring_–_Spiegelung Und nicht vergessen: Unraid nutzt ausschließlich Software-RAIDs ... Um auf die Ausgangsfrage zurückzukommen. Die Antwort: Kommt vorrangig auf die Anbindung an ...
  24. Das ist halt die Frage. Deshalb lieber mit interaktiver Kontrolle.
×
×
  • Create New...