Jump to content

hawihoney

Members
  • Posts

    3,501
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. I can confirm that for 6.12.10 in Unraid webterminal.
  2. ich schon Und hier der offizielle Fix in 6.12.4 - sogar mit offizieller Erläuterung: https://docs.unraid.net/unraid-os/release-notes/6.12.4/#fix-for-macvlan-call-traces
  3. Das sind die offiziellen drei Schritte. Wenn das bei Dir nicht klappt, dann ist etwas Anderes rund ums Netzwerk verstellt:
  4. Was denn genau? Den Server selbst? Irgendwelche Docker Container? VMs?
  5. Dann eröffnen bitte einen Bug Report in dem Connect Forum. Sonst wird das nicht gefixt.
  6. Just curious: Is there a reason to omit a leading zero for the day but add a leading zero to the hour? Last login: Fri Apr 5 09:55:48 2024 from 192.168.178.51
  7. Du bist/warst noch auf Unraid 6.12.8? 6.12.10 behebt das.
  8. Vielen Dank für die netten Worte. Das ist alles gebraucht gekauft - mit Ausnahme von Motherboard, CPU, RAM, NVMe, CPU-Lüfter, Powerboards in den DAS. Der 19" Schrank war schon beim Kauf verbeult. Den habe ich im Schneetreiben in Gummersbach abgeholt und nach Köln gebracht. Die gebrauchten Gehäuse mit ihren Backplanes von Supermicro sind unfassbar robust, schwer und laut. Das habe ich durch die baugleichen Lüfter mit erheblich niedrigerer Umdrehung reduzieren können. Das Unraid Array hat ja diesen Vorteil, dass nicht immer alle Platten aktiv sind. Dann braucht man auch ein kleineres Netzteil und weniger Luftdruck. Ich warte sehnsüchtig auf Multi-Array-Support. Dann erreiche ich erst meine Wunsch Konstellation. Hatte ich es schon erwähnt? Ich habe schon vor 30 Jahren in einem großen Rechenzentrum in Düsseldorf gearbeitet ...
  9. Server immer aktiv - keine Stromsparmechanismen. Ist halt Server-Grade-Hardware. Platten gehen natürlich in den Stand-By Modus.
  10. Korrekt. 3x24 plus 2x NVMe. Läuft seit 2-3 Jahren 24x7x365.
  11. Tut mir Leid. Das sind viel zu viele hypothetische Fragen für mich. Das meiste davon kann Dir niemand beantworten. Nur so viel: - Es ergibt absolut keinen Sinn - auch nicht mit 4 Parity Platten - 50 Platten abzusichern. Das ist einfach so. Die Rebuild Zeiten würden gigantisch. - Die Begrenzung des Arrays gibt es aus diesem Grund schon seit dem ersten Release vor 20 Jahren oder so. Du hast das beim Kauf Deiner Lizenz sicherlich überlesen. - Das Major Release kommt sobald es fertig ist. - Und nein, man muss keinen zweiten Storinator kaufen. Arbeite mit Pools oder arbeite Dich in Unraid als VM unter Unraid ein. Das findest Du mit der Suche. So laufen bei mir drei Supermicro SC846 Gehäuse als ein Rechner (1x Unraid Host, 2x Unraid VMs). Kannst dann je 1x LSI HBA an je 1x Unraid VM komplett durchreichen. Brauchst halt nur pro VM eine zusätzliche Unraid Lizenz. Oder warten ...
  12. Ist doch klar. Das Unraid Array - nur das Array - hat eine Begrenzung. Ich finde diesen Hinweis im Moment nicht mehr in der neuen Website. Es ist halt einfach sinnlos 43 Platten durch 2 Parity Disks absichern zu lassen. a. Pack 30 Platten inkl. Parity in das Array und den Rest in Pools. b. Alternativ geht das mit Unraid VMs. Ich nutze das. Benötigt aber mehrere Lizenzen. c. Alternativ warten auf eines der beiden kommenden Major Release ...
  13. Aber so was von. Ich habe 15 min eingestellt.
  14. Parity im Unraid Array wird nur bei folgenden Situationen geweckt: 1. Schreiben ins Array (lesend und schreibend) 2. Parity Check (grundsätzlich lesend) 3. Plattentausch (grundsätzlich lesend, außer Parity Platte selbst dann schreibend) 4. Defekter/emulierter Platte (abhängig von Aktivität im Array, lesend und schreibend) Nachtrag 5. Hinzufügen einer neuen Platte (nicht precleared, schreibend) Das wars.
  15. Einfach das Plugin installieren und gem. der Anleitung vorgehen. Die ist einfach und verständlich. Beachte bitte die Anmerkungen - keine Verschlüsselung des Uploads derzeit. Allerdings bin ich kein Freund von dem Teil. Habs zwar mal installiert aber direkt wieder gelöscht.
  16. Frage: Warum nicht anders herum? Die funktionierende Trial-Installation auf den Original-Stick kopieren? a.) Eine Unraid Konfiguration besteht immer aus dem /config/ Ordner auf dem Stick. b.) Die Lizenz Datei heißt immer *.key und liegt im /config/ Ordner auf dem Stick. c.) Schreib Dir auf, oder mache Foto/Screenshot, von den Namen der beiden Lizenz-Dateien. d.) Voraussetzung: Beide Installationen sind auf dem selben Versionsstand. 1. Sichere beide Sticks und kopiere/hebe beide Sicherungen sehr gut auf. 2. Server runterfahren. Auf PC o.ä: 3. Lösche den /config/ Ordner auf dem Original Stick. 4. Kopiere den /config/ Ordner vom Trial Stick auf den Original Stick. 5. Kopiere die gesicherte *.key Datei vom Original Stick auf den Original Stick. 6. Lösche den Trial *.key vom Original Stick (muss nicht, beide können drauf bleiben, Unraid sucht die passende Lizenz) 7. Mit Original Stick booten Für den Katastrophenfall: Du kannst jederzeit Deine beiden Sicherungen zurückspielen. Ohne Gewähr ...
  17. Nennt sich ZFS Hybrid (Mischbetrieb aus HDD, SDD oder RAM). Kommt mit Unraid 6.13. Oder meintest Du etwas Anderes.
  18. Da bist Du falsch informiert. Nimmst halt einen passenden Pool und nicht das Array.
  19. Da ist sehr viel Quatsch dabei. Das Unraid Array ist traditionell für die Datenablage gedacht. Pools für einen schnellen Schreib-Cache, Container, VMs. Alles kann auf allem laufen. Die Performance Anforderungen treffen die Entscheidung, was man wohin packt. Bit-Rot halte ich persönlich für einen esoterischen Mumpitz. In den von mir seit nun 16 Jahren betreuten Unraid Servern ist noch kein Bit umgefallen. Und wir reden hier von hunderten Platten in Unraid Arrays. Das wäre bei Parity-Checks aufgefallen. Sorg dafür, dass der Rechner nicht hart runter kracht oder runter gefahren wird. Das verhindert Probleme.
  20. Zunächst eine Frage: Wie werden die Platten eingesetzt. Im Unraid Array oder in einem ZFS/BTRFS Pool? Das Array nutzt beim Lesen nur eine Daten-Platte und beim Schreiben - je nach Konfiguration - max. 3 Platten. Das bedeutet, dass die Platten eigentlich nur schlafen. Hierfür nehme ich immer das Billigste. Ich kaufe ab und an sogar gebrauchte Platten. Bei ZFS/BTRFS Pools, mit Belastung aller Platten beim Lesen oder Schreiben, würde ich nicht gerade das Billigste oder sogar Gebrauchtes nehmen. Extrem großen negativen Effekt hat permanentes tägliches Abschalten (vom Strom trennen) des Rechners. Da spielt es auch keine Rolle ob Array oder Pool. Bis 2020 habe ich das noch gemacht. Da hatte ich noch dauernd ausfallende Platten. Seit 2020 laufen alle Unraid Rechner durch. Seit dem hatte ich keine defekte Platte mehr. Hier läuft überwiegend Toshiba, waren meistens die Billigsten.
  21. Du meinst den? Das ist der Linux Weg. Du hast dutzende Produkte zur Auswahl - die alle mehr oder weniger das selbe machen, und deren Qualität und Funktionsumfang variieren. Ich habe lieber ein paar dutzend offene Produkte zur Auswahl als eines das direkt integriert ist und mir nicht zusagt. Der OP hat 8 (acht) Alternativen aufgeführt. Ich finde es toll, dass es das gibt. ... und dabei hat er die von mir genutzten noch nicht mal in Betracht gezogen (rsync/rclone) ...
  22. Sollen alle vier Platten ins Array? Wenn ja: 1x 16 TB Parity, 1x 16 TB Data, 2x 10 TB Data --> 36 TB nutzbar Alternativ mit Dual Parity: 2x 16 TB Parity, 2x 10 TB Data --> 20 TB nutzbar (kommt halt auf den gewünschten Grad der Ausfallsicherheit an) Wenn nein? Mehr Details bitte. Wenn das System sie rauswirft --> ja Wenn sich die einstellbaren SMART Kennziffern verschlechtern --> ja *) Wenn beim Schreiben Fehler auftauchen (die nicht auf Reservesektoren gemappt werden können) -> ja Wenn beim Lesen Fehler auftauchen (die führen durch Parity und die andere Platten zu korrigierendem Schreibvorgang, Wenn der, oder das erneute Lesen, scheitert) --> ja *)
  23. Entweder oder. Entweder die beiden Punkte aus meinem Post, oder IPVLAN. Als Fritzbox Nutzer sind die beiden Punkte aus meinem Post angebracht. Adguard kenne ich nicht, nutze ich nicht. Mach erstmal die empfohlenen Einstellungen von oben.
  24. Du musst entweder das komplette "Device" oder einen "Pfad" an den Docker Container durchreichen. Ich tippe in Deinem Fall mal auf die NTFS Partition. Device und Partition sind zu finden unterhalb von /mnt/disks/... Dort werden solche Devices von Unassigned Devices gemounted. Das "Passthrough" Flag in Unassigned Devices macht eigentlich nichts Besonderes. Es verhindert nur, dass man aus Versehen ein Device im Unraid Host mounted, welches bereits anderweitig (Container, VM) in Benutzung ist.
×
×
  • Create New...