Tiras

Members
  • Posts

    188
  • Joined

  • Last visited

Everything posted by Tiras

  1. Ich habe gelesen, dass man diese Informationen mit z.B. lsscsi oder lspci und den entsprechenden Parametern auslesen kann. lsscsi --verbose habe ich einmal ausprobiert und folgendes Ergebnis angezeigt bekommen. Das einzige was ich hier wieder finde ist 0b:00.0 (4 und 5) und 0c:00.0 (6,7,10 und 11), aber auch hier kann ich nichts über die Begriffe aus meinem ersten Post finden. Was genau sind die Begriffe? Wie kann herausfinden, an welchem SATA Port etwas angeschlossen ist? Wenn doch im Handbuch des Mainboards die SATA_PORTS von 0-5 spezifiziert sind, müssten diese Ports dann nicht irgendwo wiederzufinden sein?
  2. Ich möchte einfach nur verstehen, wie die unterschiedlichen OS die Hardware auslesen um zu wissen, welche Hardware verbaut ist. Linux und z.B. Windows müssen sich ja da unterscheiden, oder? Und es ist für mich einfach nur mal interessant zu wissen, wie z.B. Unraid weiß, dass eine HDD am SATA_PORT 3 von 6 angeschlossen ist, ohne die IDs zu kennen. Es ist einfach nur reine Neugier. Kannst du das vielleicht erklären?
  3. Hallo Zusammen, nachdem ich im Internet vergebens nach einer anständigen Erklärung für die Struktur der unter System Devices aufgelisteten Komponenten gesucht habe, möchte ich euch an dieser Stelle meine Fragen stellen und hoffe, dass es hier den einen- oder anderen gibt, der sich mit diesem Thema auskennt. Auf dem nachfolgenden Screenshot sieht man die verbauten HDDs und SSDs in meinem System. Im Internet bin ich bei meiner Suche nach Antworten auf die Begriffe Dev_Bus, Dev_Bridge_Bus und Dev_Port gestoßen. Nachdem ich im BIOS nach Antworten gesucht habe, bin ich zumindest dort auf SATA_PORT gestoßen. Dort werden die SATA_PORTS von PORT0 - PORT5 durchnummeriert. Ich finde diese SATA_PORT Nummern nicht in dem Screenshot und wollte daher fragen, ob jemand kurz erklären kann, was auf dem Screenshot der Dev_Bus, Dev_Bridge_Bus und der Dev_Port ist, falls dieser auf dem Screenshot vorhanden ist. Wenn nicht, gibt es ein Befehl mit dem man diese Informationen erhält und sind die statisch oder vom OS abhängig? Schon mal vielen Dank für eure Hilfe.
  4. Mich wundert es nur, dass die Rate so niedrig ist.
  5. Der Log hat nun wieder 75% erreicht. Ist das normal?
  6. Hier ein kurzer Ausschnitt aus der Log, da sie sich ständig füllt.
  7. Hallo Zusammen, seit 3 Tagen läuft ein Scrub auf meinem RAID 5 und mir ist dabei aufgefallen, dass der Log auf 100% ging und die Geschwindigkeit immer langsamen wird und sich dadurch auch die Dauert erhöht. Die Überprüfung wird derzeit mit 10 MB/s durchgeführt, was meiner Meinung nach sehr niedrig ist. Ist das normal oder kann man da etwas machen?
  8. Hallo Zusammen, scheinbar geben nun nach knapp 4 Jahren die HDDs den Geist auf. Deshalb wollte ich mal Fragen, ob Ihr 5 oder 6 TB Platten empfehlen könnt? Ich habe mitbekommen, dass einige sich externe Platten gekauft haben und die HDDs verwenden. Was haltet ihr davon und welche würdet ihr dann empfehlen? Ich bin offen für jedes Angebot, aber es sollte doch bezahlbar sein. Viele Grüße,
  9. Tiras

    Neukonfiguration

    Also laut den Daten im Pool ist es ein RAID 5. Du hast recht, dass ich die 2 x 1 TB NVMe´s auch in ein Pool hinzufügen dem Share den Pool als Prefer zuweisen kann. Vielleicht mache ich das noch, da noch keine VM erstellt ist. Wie läuft es dann ab, wenn Share "x" auf Disk 1 liegt, durch die Daten in Share "x" die Disk 1 nun voll läuft und weitere Daten auf Disk 2 speichert. Somit ist der Share "x" einmal auf Disk 1 und auf Disk 2. Wenn in Share "x" ein Dokument liegt mit 45 MB und nach Änderungen das Dokument nun 84 MB hat und der Platz nicht ausreicht, dann müsste die Datei ja von Disk 1 auf Disk 2 verschoben werden und somit wäre es ja dann auch ein Kopieren/ Verschieben von Disk zu Disk. Wir das Dokument nun lokal gespeichert und bearbeitet, anschließend wieder in den Pool kopiert, dann wäre es ja ein Share => Disk Kopiervorgang, oder nicht?
  10. Tiras

    Neukonfiguration

    Guten Morgen und vielen Dank für eure Antworten. Mir ist schon klar, dass ich Kopiervorgänge falsch durchgeführt habe, weil ich es einfach von Windows gewohnt war vom "Datenträger C/Temp" zu "Datenträger D/Temp2" ohne Probleme kopieren zu können. Hier habe ich festgestellt, dass es zu Fehlern führt, wenn ich Dateien/Ordner von einem Share der auf Disk 1 liegt auf einen Share, der auf Disk 2 liegt, kopiere. In dem anderen Thread habe ich mgutt (bitte nicht falsch verstehen) so verstanden, dass Kopiervorgänge von Share zu Share, die sich auf der gleichen Disk befinden mit /mnt/user machen sollte. Wenn man Kopiervorgänge von Disk1/Share zu Disk2/Share macht, dann mit /mnt/disk1 zu /mnt/disk2 Ich mache das ganze mit dem RAID und den NVMe´s im Array, weil ich die Dokumentation so verstandenen habe, dass die Parity keine Dateien wiederherstellt und in dem ein- oder anderen Beitrag erwähnt wurde, dass die Parity keine Backupmethode ersetzt und man sich darüber ebenfalls Gedanken machen sollte. Die Aufgabe einer Parity liegt meiner Meinung nach darin, dass sie Informationen über Disks enthält, wo z.B. Ordner/Dateien sich befinden. Sollte eine Disk ausfallen, dann werden die Daten nach dem Austausch wieder auf der ausgetauschten Disk hergestellt. Um somit etwas mehr Sicherheit für meine Daten zu haben, habe ich das RAID 5 erstellt. Zum einen hat das den Vorteil, dass die unterschiedlichen Plattentypen gleichermaßen behandelt werden (R/W) und zum anderen, dass ich mir bzgl. Parity Größe keine Gedanken machen muss. Es wäre nichts anderes, wenn ich hier eine Synology oder QNAP stehen hätte, dort die Daten liegen würde und ich eines der beiden System als SMB Share eingebunden hätte. Der Unterschied liegt hier nur, dass die Daten im RAID 5 bei mir auf dem gleich System liegen, was meiner Meinung nach auch kein Problem sein sollte. @alturismo In vielen Beiträgen wurde mir empfohlen, dass ich vermeiden sollte ein Cache als Only zu verwenden. Wenn ein Cache als Yes eingebunden wird, dann werden die Daten zuerst in den Cache geladen und "erst" nach dem starten des Movers, werden die Daten auf das Ziel "verschoben". Bei Prefer bleiben die Daten bis zum Nimmerlandstag auf dem Cache, es sein denn, der Speicher auf dem Cache neigt sich dem Ende, aber bei Prefer wird der Mover ignoriert. Es gibt jedoch eine Ausnahme: Wenn ein Share erstellt wird, dort ein Cache als Prefer eingebunden wird, dann werden die Ordner/Datei bei der nächsten Ausführung des Movers auf den Cache geschoben. Meiner Meinung ist es eigentlich egal, ob das Array aus HDDs, SSDs, USB-Sticks oder NVMe´s besteht. Wichtig ist - und das hat @mgutt sehr gut erklärt - das man bei den Platten generell (nicht nur bei Unraid) auf den Plattentypen (SMR vs. CRM) achten sollte. Ob ich als 10 x 5TB SSDs und eine 5 TB SSD als Parity konfiguriere oder HDDs ist egal. Es geht hier um die Verarbeitung der Anfragen und nicht nur um die Kapazität. Ich werde zukünftig nur noch /mnt/user/share verwenden. Ich hoffe das klappt auch, wenn die Shares auf unterschiedlichen Disks liegen.
  11. Tiras

    Neukonfiguration

    Hallo Zusammen, ich habe meine neue Konfiguration nun abgeschlossen und mich für folgendes entschieden, was ich testen möchte. 1. Meine Dateien werden vorerst auf einer externen HDD gespeichert. Zusätzlich werden die wichtigen Daten via WebDav mit meiner MagentaCloud synchronisiert. In der MagentaCloud wird jeden 2. Tag ein Backup erstellt. Somit sind die wichtigen Dokumente wie Bilder, Musik, Unterlagen etc. erst einmal safe. 2. Habe ich mir aktuell ein Array wie folgt erstellt: Parity: 1 TB NVMe Array: Disk 1: 1 TB NVMe (Wird in allen Shares excluded, weil sie nur für Virtualisierungen dienen soll). Disk 2: 128 GB NVMe Disk 3: 128 GB NVMe Pool_Daten (RAID 5): 2 x 4 TB HDD 2 x 5 TB HDD Sämtliche Shares - bis auf den VM Share - erhalten als Cache den Pool_Daten als Prefer. Das VM Backup Skript wird täglich ein Backup mit max. 7 Backups durchführen. Die Frage habe ich zwar schon einmal gestellt, aber ehrlich gesagt bin ich mir noch nicht 100%ig sicher, ob ich es ganz verstanden habe ich den Aufwand, den ich wegen meinem Datenverlust durch das falsche Kopieren hatte, möchte ich nicht nochmal haben. Aus diesem Grund wollte ich noch einmal fragen, welchen Share Typ ich nun wählen sollte, um beim kopieren nicht wieder 0 KB Dateien zu erzeugen? Wenn ich darüber nachdenke, dann wäre es besser, den Disk Share Typ zu wählen und via Windows Explorer die Ordnerstruktur zu erstellen. Anschließend bekommen die entsprechenden Clients im Haushalt den relevanten Ordner als Netzlaufwerk über die Disk eingebunden. Der User Share ist meiner Meinung nach sehr Fehleranfällig in Bezug auf kopieren von Share zu Disk. Außerdem war da ja noch die Sache, dass eine Reference einer Datei / Ordner erstellt wird, wenn man diese zwischen Shares kopiert die auf unterschiedlichen Disk liegen, wenn ich es richtig verstanden habe. Was also wäre jetzt die bessere Vorgehensweise? Sollte ich in den Apps und den Clients nun /mnt/user/Sharename oder /mnt/disk1/Sharename verwenden? Vielen Dank für Eure Hilfe/ Antworten.
  12. Ich habe Dir eine PN geschickt. Ich bin aber scheinbar auf eine mögliche Ursache zu dem Problem gestoßen. Vor einiger Zeit habe ich ein BIOS Update durchgeführt. Im BIOS habe ich eben mal alles überprüft und komischer Weise wurden mir gar keine NVMe´s mehr angezeigt. Auch nicht die, die auf dem Board verbaut ist. Also habe ich die ASUS Card entfernt und die darauf verbauten NVMe´s jeweils nach und nach auf den M2_Slots am Board verbaut und getestet. Im BIOS wurden sie mir nicht angezeigt, aber Unraid hat sie scheinbar gefunden. Sie konnten in Unraid jedoch nicht gemounted werden. Also kurzen Prozess: Die vorherige BIOS Version geladen und installiert. Jetzt werden die NVMe´s, die in den Slots des Mainboards verbaut sind wieder angezeigt. Bisher kam die Warnung auch nicht mehr. Ich beobachte es jetzt die nächsten Tage und melde mich mit Feedback.
  13. Ist es normal, dass kein Error mehr erscheint, wenn ich eine Disk abschließe die Teil eines Pools oder eines Array ist? Ich habe mal sämtliche HDDs und eine NVMe ausgebaut und komisch finde ich, dass die NVMe aus der Fehlermeldung weiterhin als gefunden angezeigt wird. Die HDDs jedoch werden nicht als Missing gekennzeichnet.
  14. Nein, es lief nichts. Jetzt ist das Array gestoppt.
  15. Mir ist gerade aufgefallen, dass ich das Array gerade nicht stoppen kann. Seit mehr als 5 Minuten warte ich darauf, dass das Array gestoppt wird, aber unten in der linken Leiste steht weiterhin wie auf dem Screenshot. Wenn ich jetzt einen Hardreset ausführe, dann geht wahrscheinlich die nächste Platte kaputt.
  16. Ich habe Dir die Diagnostics hinzugefügt. Danke für deine Hilfe.myunraid-diagnostics-20210822-0622.zip
  17. Die beiden Platten aus dem vms_nvme Pool und 1 Platte aus dem services_pool sind auf der Asus Karte. Ich habe Scrub ausgeführt und leider feststellen müssen, dass 10 Uncorrectable existieren. Heißt das nun eine neue NVMe kaufen? Ich kann einen Serverabsturz wirklich ausschließen, da mein Array nicht automatisch gestartet wird, ich nie nach dem Login aufgefordert wurde das Array zu starten und das Array auch nicht alleine starten kann, weil ich eine Keyfile hinterlegt habe, die ich jedes mal auswählen muss.
  18. Wie synchronisierst du deine Dateien? Deinen Befehl cp -a verwende ich gerade, um die nicht zerstörten Daten auf eine externe Platte zu kopieren. Aber wenn ich z.B. Ordner von Unraid mit Ordner auf einer externen Platte aktuell halten möchte, welcher Befehl mit welchen Parametern wäre da am besten (ja, ich kenne rsync)? Für mich ist es aktuell nämlich noch nicht möglich ein 2. System als Backupsystem aufzubauen. Aus dem Grund muss ich mich erst einmal mit Daten synchron halten, zufrieden geben. Das heißt täglich Daten von Unraid auf eine externe Platte schieben. Ich hatte aber einen neuen Thread "Neukonfiguration" erstellt mit der ein- oder anderen Idee.
  19. Zur Info: Der vms_nvme Pool sind die beiden 1 TB Samsung Evo 970 Plus NVMe´s Bist du so nett und würdest mir kurz erklären, was du genau darauf schließ(t)/(en) (kannst)?
  20. Es ist mir bisher nur aufgefallen, wenn die VMs ausgeschaltet sind. Macht das ein Unterschied? Die VMs starten derzeit nicht automatisch und die Meldung kommt direkt nach dem Array Start.
  21. Tiras

    Neukonfiguration

    Hi Zusammen, nachdem in der letzten Zeit so viele Probleme durch die aktuelle Konfiguration meines Unraid Servers aufgetreten sind und ich ehrlich gesagt nicht noch mehr Daten verlieren möchte, möchte ich gerne Eure Meinung zu folgender neuen Konfiguration wissen. Aktuell habe ich einen Pool "data" (RAID 6 mit 2 x 4 TB HDD und 3 x 5TB HDD), auf dem sämtliche normale Shares als Cache = "data" und Only erstellt sind. Dann habe ich ein Pool "services_nvme" (RAID 1 mit 2 x 128 GB) für Shares wie Transcode oder MagentaCloud als Cache = "services_nvme" und Only. Als letztes habe ich einen Pool "vms_nvme" der nur dem Share "Virtualizations" als Only zugewiesen ist. Nachfolgend ein kurzer Screenshot einer Datenübertragung von Pool "vms_nvme" zu Pool "data (RAID 6)" Nochmal kurz zu meiner Hardware: Mainboard: Gigabyte x570 Gaming X CPU: AMD Ryzen 5 4650G PRO RAM: 2 x 32 GB 2600 MHz 2 x Gigabyte 128 GB NVMe 1 x SanDisk 240 GB SSD 2 x Samsung Evo 970 Plus NVMe 2 x WD 4 TB HDD (CMR) 1 x WD 5 TB HDD (CMR) 2 x Seagate 5 TB HDD (SMR) 1 x WD 6 TB HDD (CMR) - (Dient derzeit um Dateien abzusichern) Konfiguration: Array (Ohne Parity): SanDisk 240 GB SSD Für Shares wie appdata, Transcode, system Pool_Data (Wird ein RAID 6): 2 x 4 TB HDD 3 x 5 TB HDD Pool_VM (Wird ein RAID 1): 2 x 1 TB NVMe Cache_Service (Wird ein RAID 1): 2 x 128 GB 1. Beschreibung: Den normalen Shares wie Dokumente, Bilder, Medien etc. werden die Disk aus dem Array und zusätzlich dem Cache "Pool_Data" als Prefer zugewiesen. Dem Share Virtualisierungen wird ebenfalls die Disk aus dem Array, aber dem "Pool_VM" als Prefer zugewiesen. Shares wie appdata, Transcode und system würde ich die Disk aus dem Array und zusätzlich dem Cache "Cache_Service" als Prefer zuweisen, aber durch die SSD im Array müsste ich das nicht mal. 2. Beschreibung: Den in der 1. Beschriebenen Shares wird nicht die Disk 1 aus dem Array, sondern nur die jeweiligen Pools als Only zugewiesen. Also eigentlich wie die aktuelle Konfiguration. Hier würde ich die Konfiguration nur erneut durchführen, in der Hoffnung, dass die Probleme die ich in den anderen Threads beschrieben habe, behoben werden (Missing Disk, Kopieren / Moven, etc.). Warum diese Konfiguration? Durch das RAID 6 habe ich ein hohes und ausgeglichenes Write trotz der SMR Platten. Zusätzlich habe ich die Parity gegen das RAID 6 ausgetausch und muss mir keine Gedanken darüber machen, dass die Parity min. so groß ist, wie die größte Disk im Array. Ich würde in beiden Beschreibungen in den "Global Share Settings" die Einstellung für User Share deaktivieren. Die Netzwerkplatten würde ich auf den entsprechenden Clients dann über den Disk Share machen. Damit erhoffe ich mir in Zukunft keine falschen Kopiervorgänge zu machen, die meine Dateien auf 0 KB setzen (wie im Thread Kopieren / Moven beschrieben). Hinzu kommt, dass alle Shares auf einem Pool liegen und nicht auf unterschiedliche Disk wie in einer Array Konfiguration verteilt werden. Fragen: Den aktuellen RAID 6 Pool habe ich so erstellt, indem ich ein neuen Pool erstellt, die Anzahl der Platten festgelegt und die Platten hinzugefügt habe. Danach habe ich dem Pool den Datentyp (BTRFS Encrypted ) eingestellt. Nachdem ich das Array gestartet habe mussten die Platten im Pool formatiert werden und anschließend habe ich im Pool im Dropdown für "Balance Status" auf Convert to RAID 6 Mode" ausgewählt und auf Balance ausgeführt. War das die richtige Vorgehensweise, um ein RAID 6 zu erstellen oder wie erstellt man ein RAID (6) richtig in Unraid? Wie muss man vorgehen, wenn eine Disk im RAID 6 ausfällt? Da in beiden Beschreibungen die Ordner durch die Auswahl von Prefer oder Only auf den jeweiligen Pools liegen und auch dort erstellt werden, wäre es doch am Besten überall den Pfad vom Pool anstatt vom Share anzugeben, um das Problem mit der 0 KB Überschreibung zu umgehen, oder? Ich hoffe ihr nehmt mir den langen Text nicht übel und ich bin sehr auf Eure Meinungen oder zusätzlichen Ideen gespannt und danke Euch für Eure Unterstützung.
  22. Und die alte Meldung der NVMe ist auch wieder da...
  23. Sorry, aber irgendwo komme ich mir langsam veräppelt vor. Jetzt soll aus einem ganz anderem Pool die Disk fehlen, aber wie man sieht, ist sie da bzw. der Slot wird nicht als "Missing" markiert.
  24. Nochmal etwas zu diesem Thema. Ich habe meinen Server nun wie folgt konfiguriert: Array (ohne Parity): 1 x SSD 240 GB (ausschließlich für Docker und Apps) mit Cache = Prefer auf Pool = services_nvme Pools: services_nvme 2 x 128 GB NVMe RAID 1 vms_nvme 2 x 1 TB NVMe RAID 1 data RAID 6 2 x 4 TB HDD (werden demnächst getauscht) 3 x 5 TB HDD Ich habe normale Shares, wie Dokumente, Bilder, Musik etc. mit der EInstellung Cache = Only (data) erstellt. Für den Share Virtualization habe ich ebenfalls einen Share mit Cache = Only (vms_nvme) erstellt. appdata und system sowie Transcode für Plex habe ich auf Disk 1 erstellt. Damit das Problem nicht wieder auftritt, dass durch kopieren von Share zu Disk die Daten verloren gehen, was wäre nun die richtige Pfadangabe? In den VM Settings habe ich derzeit /mnt/user/Virtualization als Standard Folder angegeben. Würden die Dateien nicht wieder kaputt gehen, wenn ich von einer anderen Disk / Share auf /mnt/vms_nvme/Virtualization kopiere oder von /mnt/user/Virtualization ? Da das ja ein bekanntes Problem in Unraid ist, wird der Anwender irgendwo darauf hingewiesen, dass ein Kopieren von Dateien von Share => Disk die Dateien überschreibt und - ich nenne es mal zerstört? Sorry, habe noch etwas vergessen: Es wäre doch am Besten, wenn man in den Global Share Settings die User Share deaktiviert und nur Disk Share nutzt. Somit würde man auf den Clients über die Disk oder den Pool die entsprechenden Ordner einbinden z.B. auf meinem Windows PC mit \\myunraid\vms_nvme\Virtualization ?? Somit hätte ich nicht das Problem wieder, dass die Dateien "zerstört" werden, oder? Das gleiche würde ich dann auch in den Docker / Apps / Settings machen.
  25. Wenn der Server neugestartet und das Array gestartet wurde, dann kam die Meldung. In der Übersicht aller UA, Pools und Array wurde jedoch alles korrekt angezeigt. Keine fehlenden Disks wurden aufgelistet. Nachdem ich wie gesagt im BIOS auf "RAID" umgestellt habe, wurde die Meldung nicht mehr angezeigt.