Jump to content

hawihoney

Members
  • Posts

    3,497
  • Joined

  • Last visited

  • Days Won

    7

Everything posted by hawihoney

  1. Dann hat sich etwas an der PiHole Konfiguration geändert. Wenn es jetzt klappt - OK. Guck Dir trotzdem Mal kurz die Anweisungen (z.B. #arrayStarted) im Threads des User Script Plugins an. Das sind nützliche kleine Helferlein.
  2. 1.) Das kann nicht das ganze Skript sein. Es fehlt der Hash Bang in der ersten Zeile. Es fehlen Hashes vor den Skriptanweisungen (z.B. #arrayStarted). Es fehlt die Leerzeile nach den Anweisungen (hinter noParity). 2.) Was steht im Script Log?
  3. Falsch. Die Parity wird on-the-fly für jeden geänderten Block auf Disk6 beschrieben. Auf Deinem Screenshot kannst Du sehen was geschrieben wird. Damit werden jetzt alle (!!!) Platten genutzt und nicht mehr nur Disk2, Disk6 sowie Parity --> benötigt mehr Strom. Für mich ist die Situation an Hand Deines Screenshots klar. Dynamix FileManager nutzt rsync zum Verschieben der Daten. Der Match von 72 MB/s auf den drei betroffenen Platten zeigt, dass nix Anderes läuft. Es gäbe sonst ein Lese- oder Schreibunterschied bei den drei Platten. Rechne einfach mal an Hand Deiner Daten nach. Welches Volumen in TB verschiebst Du?
  4. Aus Deinem Screenshot wird das ersichtlich: Es wird von Disk2 gelesen und auf Disk6 geschrieben. Offensichtlich hast Du eine einzelne Parity in Betrieb - diese wird ebenfalls beschrieben. Die Schreibperformance von über 70 MB/s ist bei mechanischen Festplatten absolut in Ordnung da das Parity-geschützte Array pro Schreibvorgang vier Operationen ausführt (siehe unten). Das entspricht über 200 MB/s was für mechanische Festplatten sehr gut ist. Ich gehe davon aus, dass Du sehr, sehr viele Daten verschiebst ... Nun teile die zu verschiebende Datenmenge durch 70 MB/s und Du kennst die dafür notwendige Zeit - vorausgesetzt Dein System ist nicht noch mit etwas Anderem beschäftigt. Wenn ich mich nicht verrechnet habe, dann kannst Du mit Deinem Array grob in vier Stunden 1 TB schreiben, bei 2 TB macht das acht Stunden, ... https://wiki.unraid.net/Manual/Storage_Management#Array_Write_Modes
  5. Nimm den systemnahen Dynamix File Manager und arbeite im Browser.
  6. 1.) 5400er wären lange nicht so "zappig" wie 7200er 2.) USB? Ganz schlechte Idee. Ist hier schon dutzende Male thematisiert worden. USB Verbindungen sind definitiv nicht für RAID Systeme wie das Unraid Array gedacht. Nimm zu einfachen externen Gehäusen entweder eSATA oder lebe mit evtl. auftretenden Problemen.
  7. Excuse my stupid question, I'm not sure about its implications. Will it still be possible to copy files in /usr/bin/ during first array start without problems? Example: cp /usr/bin/fusermount3 /usr/bin/fusermount
  8. Ich kenne das Skript von @mgutt nicht in Gänze - habe gerade nur mal grob drüber geschaut. Stoppt es die VMs vor dem Backup? Ich meine dass das nicht der Fall ist. Wenn nein, dann kann bzw. wird das zum Problem werden. Du brauchst a.) Snapshots auf einem Snapshot-fähigen FS oder b.) ein Backup Programm welches vorab die VMs stoppt und nach dem Backup wieder startet. Man könnte es auch einfach selber in User Scripts packen (Stichworte: virsh sowie rsync Kommandos) aber das erfordert rudimentäre Programmierkenntnisse.
  9. Beim Anbieter den Umstand unter Zusendung von Details (Anmelde Bestätigung, etc. wenn vorhanden) beschreiben und Account löschen lassen. Alles andere löst nicht das ursächliche Problem.
  10. Die einfachste Variante wäre über das Dynamix FileManager Plugin in der Unraid Oberfläche im Browser. Ggfs. musst Du die yaml Extension für den FileManager aktivieren in /boot/config/editor.cfg. Letzteres kannst Du ebenfalls im FileManager editieren.
  11. hawihoney

    ZFS

    Das ist Quatsch. Ich hatte @ich777 allgemein geantwortet (Single Disk ZFS|XFS im Array). Du hast das gequotet und mein Argument für eine Gegenrede verwendet. Ich habe das richtig gestellt und schon drehst Du es wieder um. Geht es hier ums letzte Wort haben müssen? Korrekt war es jedenfalls nicht. Lies im Zweifel noch mal.
  12. Kein Thema. Ich hatte manchmal Probleme mit fremden DNS-Servern und Telekom. Ich kann das nicht erklären aber es scheint als gäbe es manchmal Auflösungs-Probleme. Ich rotiere in solchen Fällen zwischen Telekom, Google, Cloudflare und zurück und dann klappt es.
  13. Gerade ein "Check for updates" ausgeführt. Für "Home Assistant" wurde ein Update angezeigt. Update erfolgreich ausgeführt. Also hier läuft es. Ist bei Dir noch Software (AdBlocker, Proxy, etc) zwischen Unraid und dem Router?
  14. hawihoney

    ZFS

    Mein Satz bezog sich auf ZFS als Single Drive FS im Array.
  15. hawihoney

    ZFS

    Das Du das weißt war mir klar - ich wollte das halt nur mal erwähnt haben. Ein Dataset ist halt irgendwie ein Zwitter. Wird spannend zu sehen wie Unraid das im übernächsten Release in die GUI vollständig integrieren will. Für mich persönlich als Benutzer eines Standard Unraid sind einige Dinge ganz klar. Das Array ist und bleibt für mich die Ablage für die kalten Daten (wenig Bewegung, Platten schlafen ...). Ob bei den individuellen Platten des Arrays XFS oder ZFS zum Einsatz kommt ist mir persönlich Latte. XFS stellst sich mir rock-solid dar. Warum also ändern. ZFS wird hier nur den - in meinen Augen - Totalausfall BTRFS ersetzen. Einen schnellen NVMe RAIDZ1 Pool für die klassischen appdata/domains/etc. Dinge und einen neuen NVMe RAIDZ1 Pool für heiße Daten (viel Bewegung, Platten always-on).
  16. hawihoney

    ZFS

    Ein Dataset ist eher eine Partition als ein Ordner: https://de.wikibooks.org/wiki/ZFS_auf_Linux/_Dataset
  17. Ein Versuch war es wert. Hätte ja sein können ... Im Ernst: Du bist lange genug in diesem Forum dabei, und hast auch an einigen Threads teilgenommen, um zu wissen, dass eine solche pauschale, inhaltlich leere Anfrage niemand beantworten kann. Jeder der Dir helfen will muss Dir, wie @DataCollector, vorab ein dutzend Fragen stellen. Diese Details gehören in Deine Anfrage. Das ist als würdest Du in eine Buchhandlung gehen und sagst "Ich will ein Buch". Also: Wie ist diese Anwendung installiert und wie hast Du ihr den Zugriff auf die fehlenden Daten ermöglicht.
  18. Hast Du schon unter den Tisch geschaut?
  19. Wirst Du wohl mit apt-get installieren müssen.
  20. https://letmegooglethat.com/?q=resize+partition+debian StackExchange? growpart? Ohne Gewähr!
  21. Noch eine zusätzliche Anmerkung hierzu da es oft zu Missverständnissen führt: Selbst bei einer "Precleared" Festplatte wird am Ende der Punkt a.) - das clearen - im neuen, bisher ungenutzten Bereich der Festplatte ausgeführt. Deshalb bringt das Preclearen nur eine Zeitersparnis im Array beim Hinzufügen von zusätzlichen Platten und nicht beim Ersetzen von Festplatten. Denn es ist eine beliebte Frage beim Ersetzen durch eine größere Platte "Wieso wird denn nach dem Rebuild über Stunden nur die Ersatzplatte (ggfs. zusätzlich Parity) beschrieben?" Das sind die Nullen ...
  22. Genau so funktioniert das Unraid Array seit Anfang an - egal ob mit XFS, BTRFS, ReiserFS oder ZFS. Am Ende des Rebuilds wird a.) der Rest der größeren Platte mit Nullen beschrieben und b.) die Partition in diesen Bereich erweitert. Diese zusätzlichen Anpassungen wandern dann auch gleich in die Parity so dass diese 20 TB Platte sofort wieder gegen eine andere 20 TB ausgetauscht werden könnte. Ein kleiner Ausflug ins Jahr 2008 in dem ich meine erste Unraid Lizenz erwarb https://web.archive.org/web/20080803131341/http://lime-technology.com/?page_id=47#toc-replace-a-single-disk-with-a-bigger-one
  23. Kann man mit Unraid Bordmitteln ändern. Danach muss die Linux Partition innerhalb der vdisk manuell angepasst werden: Das sind dann aber eher Linux Bordmittel und hat nix mehr mit Unraid zu tun.
  24. I think a blank line after "Subject:" ends the message header and puts the rest of the header into the message body. Perhaps two CR LF or a character interpreted as such. Perhaps the subject comes with it's own CR|LF.
×
×
  • Create New...