pappaq

Members
  • Posts

    208
  • Joined

  • Last visited

Everything posted by pappaq

  1. Danke, dann werde ich es zunächst auch erstmal mit der Version probieren dieses WE.
  2. Welches ROM hast du geflasht? 11080000.ROM oder 11180000.ROM?
  3. Moin, entschuldige, dass ich jetzt erst wieder hier reinschaue. Ich habe die Notifications aus gemacht für das Forum hier. Freut mich aber, dass du meinen Build nachbauen konntest. Ich habe inzwischen ein ähnliches Problem mit den Controllern. Ich konnte noch nicht einkreisen, welcher von den beiden dafür sorgt, dass HDDs nicht mehr erkannt werden beim Neustart, aber ich denke auch weitere ioWait etc. Probleme werden bei mir davon ausgelöst. Bin gerade bei der Fehleraufnahme. Zu deinem ASPM Problem: Auf dem Screenshot kann ich auf Anhieb nichts erkennen, das bei mir anders aussähe. Welche PCIe Slots hast du denn nun im Gebrauch?
  4. Scrubbed the pool again and the errors are gone, for now...the scrub speed was very good though. The speed is slow anyways and the iowait is super high when there is traffic on the zpool...
  5. I've noticed data corruption on the ZFS pool but where did you see the corruption for the BTRFS pool? In the UI it does not show any errors. I will run memtest as soon as I've got the time for it...the system is completely new 😑
  6. Hello everyone, I have the following problem: All copy or write operations to and from the encrypted formatted ZFS cache pool are incredibly slow. Maximum 60MB/s. Even, as you can see in this screenshot, when I copy from SSD to SSD. The IOwait is then also high. I would like to stay with ZFS because of the storage efficiency, but the speed is ridiculous. I've read about a problem of Unraid when using ZFS for the array itself but not when using it for pools. Could someone give me a hint? Thanks in advance! dringenet-ms-diagnostics-20240211-1113.zip
  7. I've changed my backup jobs to drive shares. Currently the smb is responsive as it backups...so that seems like a win. Lets see, if I can streamline the usage of the array around this circumstance. Thanks @JorgeB
  8. Had to hardreset the system. Changed the RAM but no change at all. When a backup from my workstation is running, the system becomes unresponsive smb wise... I have read many iowait issues unraid related in the past 6 month. Is there anything that can be done about this?
  9. Even a poweroff -f command doesn't bother the system as it runs the mover command...I cannot reboot, shutdown or stop the mover process, even shell telling me it is not running anymore. Feels like complete randomness.
  10. And it's happening again. VMs are disabled completely, I've managed to disable the docker service as well when it happened...nothing changed. As if unraid is busy with itself. When I try to get the diagnostics, the process hangs at collecting the zfs info: I've then tried to stop the array. But it does not work, the gui indicates, that it is running... But it isn't anymore: New RAM is on its way. Could it be something else? Diagnostics via shell is also not possible.
  11. How can that happen? After rebooting the flash drive is up and running again. I've changed the flashdrive just some month ago and it is a Samsung one, that is recommended by Spaceinvaderone... These problems are getting so annoying.
  12. Hey there, my server is again acting weird. The CPU goes up to 100% and it locks up during that time. After it is reachable again the UI does weird stuff like showing the drives of the array as mountable and such... Could someone please take a look? I thought I've found the issues of the system, by: - exchanging the Ryzen system for a complete Intel i3 System - exchanging the older controllers for new ones. The only thing that's the same as before is RAM, USB Stick and the SSDs and HDDs... Weird as well is, that the created diagnostics are named "tower" and not like the server should be named. tower-diagnostics-20231222-0924.zip
  13. I've changed my whole system from Ryzen to Intel and switched all old controllers to new ASM1166. All iowait issues are gone now. So I assume it had something to do with it.
  14. Wo hast du denn 18TB für 199€ gefunden?
  15. Danke! Das hat sofort geklappt! Jetzt muss ich nur noch testen, auf welchen Anschluss ich alle Lüfter gesteckt habe und ob sie dann auch abhänging davon drehen
  16. Fände ich auch sehr interessant, ich sehe leider nicht mal den Controller. Wie hast du es so weit bekommen, das er den Controller detected?
  17. Die Links stehen alle oben. Ich habe genau diese Hardware gekauft. Die BIOS Version vom Board habe ich leider nicht zur Hand. Unraid zeigt diese auch nicht im Dashboard an. Ich glaube das wichtigste ist die Einstellungen von mgutt exakt im BIOS einzustellen und die Controller auf den richtigen Slots zu installieren.
  18. @mgutt Absolut Gold wert solche Posts! Ich habe deine Posts jetzt quer durchs Internet immer wieder zu Low Power Systemen gesehen und muss mich an dieser Stelle einmal bedanken! Vielen Dank für das ganz Experimentieren und die Leute, so wie mich, in die richtige Richtung schicken! Ich kann mit meinem System folgendes zurückmelden: Auf weniger werde ich mit den ganzen SSDs und Controllern wohl nicht kommen. 17 Drives in total, HDDs natürlich spun down. Aber 5 min nach Boot. Das Setup ist nun wie oben beschrieben. Erfolg auf ganzer Linie, würde ich sagen! PS: 2,5GbE funktioniert einwandfrei!
  19. Yes. The last message before the error is "nothing to do here" from another amc mover job from hours before.
  20. I just restart the docker. After about a timespan of 8-24 hours it shuts down with this exact error again.
  21. Hey there, my filebot docker stops with the following error: Did anybody else got this error before? Thanks in advance! EDIT: This issue currently does not occure anymore, it seems like it fixed itself
  22. Ich nutze es für einen meiner Cache Arrays mit 4 SSDs im RAIDZ. Nutze aber den XFS von Unraid für meine 10HDDs, da dieser leichte Erweiterung und HDD Spin-Down ermöglicht. Das können TrueNAS oder Proxmox nicht oder nicht so gut/einfach. Darum bin ich noch bei Unraid. Habe aber inzwischen alle infrastrukturkritischen VMs und Container auf einen Mini PC mit Proxmox umgezogen, weil ich keine Lust mehr hatte, wenn Unraid mal wieder sponn ohne z.B. meine HomeAssistant VM und somit ohne Lichtsteuerung dazustehen Aber wir weichen vom Thema des Threads ab! Danke erstmal an alle für den Input. Ich habe das MB und die Controller bestellt und werde die kommende Woche berichten!
  23. Bisher war das System mit ZFS stabil, aber es gab immer wieder iowait Probleme. Wären die Vorteile von Unraid nicht mit dem guten Software Array und dem HDD Spindown würde ich wahrscheinlich auf Proxmox wechseln aufgrund der Stabilität... Mal sehen, wie gut es funktioniert mit dem neuen Setup.
  24. Ein Kontron ist leider mindestens doppelt so teuer wie das angestrebte Gigabyte, deswegen fällt das raus. Egal ob C8 oder C3, so oder so sollte ich mit der Kombi unter 30W kommen. Was die Hälfte meines vorigen Systems bedeutet und damit könnte ich sehr gut leben.
  25. Tatsächlich ja, ich habe gerade mein gesamtes Netz auf 2,5GbE hochgezogen. Auf dem Asus von jetzt meldet der RTL8125 2.5GbE Controller ASPM L1 Enabled. Also hoffe ich mal drauf, dass es beim Gigabyte auch funktioniert.