Vene Posted March 17, 2021 Share Posted March 17, 2021 Hallo unraid-Community, ich habe mir nun auch einen kleinen Homeserver gebaut und betreibe diesen nun mit unraid. Nach dem Update heute auf 6.9.1 habe ich mich auch hier mal angemeldet um mal eine Frage zu stellen. Ich habe mir von Amazon vor paar Wochen günstig 10TB WD Elements gekauft. Diese dann ausgebaut und in den Server rein. Gehäuse ist ein Fractal R5. Platten sind auf so kleinen Gummiabständen (vom Gehäuse direkt). Soll wohl die Vibration verringern. Meine eigentliche Frage ist, da es dort einige Meinungsäußerungen gibt, wie betreibe ich die Platten am besten. Es hängt natürlich von dem ab was ich mit dem Server mache, daher versuche ich es am besten zu beschreiben. Konfiguration besteht aus: 1x 10TB Parity WD100EZAZ 2x 10TB Array WD100EMAZ 1x 1TB SSD Cache (Sata3) Aktuell habe ich als aktive Docker, Plex und JDownloader. Die Docker und VM's befinden sich auf dem Cache (ohne Sicherung). Die Festplatten habe ich aktuell mit 15Min Spindown festgelegt. Wann gehen die Platten an? Wenn über Plex auf eine Serie/Film zugegriffen wird startet die Platte auf dem der Film ist. Alles was über JDownloader runtergeladen wird, landet erstmal auf der Cache. Der Mover verschiebt die Daten dann täglich (Nachts gegen 4 Uhr) auf das Array. Ich vermute also das meine SpinUps täglich bei evtl. 3-4x liegen. Abgesehen vom Stromverbrauch, ist das die beste Entscheidung? Quote Link to comment
mgutt Posted March 17, 2021 Share Posted March 17, 2021 2 hours ago, Vene said: Ich vermute also das meine SpinUps täglich bei evtl. 3-4x liegen. Abgesehen vom Stromverbrauch, ist das die beste Entscheidung? Ich fahre mein Setup genauso. Allerdings nutze ich noch mein rsync Script um die SSD alle x Stunden auf die HDD zu sichern: https://forums.unraid.net/topic/97958-rsync-incremental-backup/ Falls die SSD also hopps geht, habe ich in jedem Fall ein Backup von den VMs und Docker Containern. Quote Link to comment
Vene Posted March 17, 2021 Author Share Posted March 17, 2021 Ja mir ist leider noch keine Möglichkeit gekommen wie ich die SSD gleichzeitig auf das Array spiegeln kann. Einzig die Einstellung "No" würde nur das Array nutzen, was ich aber nicht möchte. Aber ich schaue mir das Script mal an. Möchte gerade für die Docker und VMs etwas zum spiegeln haben. Quote Link to comment
Ford Prefect Posted March 17, 2021 Share Posted March 17, 2021 2 hours ago, Vene said: Ich vermute also das meine SpinUps täglich bei evtl. 3-4x liegen. Abgesehen vom Stromverbrauch, ist das die beste Entscheidung? Ja, in der Frequenz machen das die HDDs viele hundert Jahre lang mit...die WD REDs, von denen die abgeleitet sind, haben 600tsd load/unload Zyklen im Datenblatt. Quote Link to comment
Vene Posted March 17, 2021 Author Share Posted March 17, 2021 25 minutes ago, mgutt said: Ich fahre mein Setup genauso. Allerdings nutze ich noch mein rsync Script um die SSD alle x Stunden auf die HDD zu sichern: https://forums.unraid.net/topic/97958-rsync-incremental-backup/ Falls die SSD also hopps geht, habe ich in jedem Fall ein Backup von den VMs und Docker Containern. Welches Plugin brauche ich dafür als Basis? Quote Link to comment
mgutt Posted March 17, 2021 Share Posted March 17, 2021 18 minutes ago, Ford Prefect said: die WD REDs, von denen die abgeleitet sind, haben 600tsd load/unload Zyklen im Datenblatt. Das dachte ich auch immer, stimmt aber nicht nicht. Es sind 50k. Die 600k beziehen sich nur auf den Wechsel zwischen Leerlauf und Lesen/Schreiben: Bei 4 Spinups pro Tag, hält die Platte also nur 34 Jahre ^^ Würde die Platte allerdings 50x pro Tag anlaufen, also ca alle 30 Minuten, dann wäre bereits nach 3 Jahren Schluss. 1 Quote Link to comment
mgutt Posted March 17, 2021 Share Posted March 17, 2021 24 minutes ago, Vene said: Welches Plugin brauche ich dafür als Basis? User Scripts. Da fügst du mein Script hinzu und bestimmst über das Dropdown die Ausführzungszeit. Oder "Custom" und dann eine Cronjob-Regel wie 0 */12 * * * um das Backup alle 12 Stunden auszuführen. Quote Link to comment
Vene Posted March 17, 2021 Author Share Posted March 17, 2021 6 minutes ago, mgutt said: Würde die Platte allerdings 50x pro Tag anlaufen, also ca alle 30 Minuten, dann wäre bereits nach 3 Jahren Schluss. Naja also solange Sie mir um die 5-6 Jahre Dienste erweisen ist es in Ordnung dafür das ich dann Jährlich Stromkosten spare kann dann auch mal einfach ne neue rein. Mit der Zeit werden die ja auch immer günstiger, weil neues kommt. Von daher. Quote Link to comment
Vene Posted March 17, 2021 Author Share Posted March 17, 2021 (edited) 48 minutes ago, mgutt said: User Scripts. Da fügst du mein Script hinzu und bestimmst über das Dropdown die Ausführzungszeit. Oder "Custom" und dann eine Cronjob-Regel wie 0 */12 * * * um das Backup alle 12 Stunden auszuführen. Hoffe ich hab das jetzt richtig gemacht. Hab mir User Scripts geladen, dann neues Script erstellt, dein Template eingefügt und folgendes geändert "/mnt/cache/appdata" "/mnt/cache/system" ) backup_path="/mnt/user/BackUp" Dazu habe ich ein neues Share eingerichtet (weis nicht ob es notwendig war) mit dem Namen BackUp und Cache "No". Der Crontab für jeden Tag um 3:30 Uhr morgens müsste doch so aussehen = 30 3 * * * Edit: Musste Server neustarten, da ich kein Zugriff mehr nach ausführen hatte. Er hat angefangen die Daten zu sichern, aber hat ewig gedauert. Wollte dann webterminal starten, kam nix. Also normaler Reboot. Schaue mir das morgen nochmal in Ruhe an. Es muss doch irgendeine schnellere Möglichkeit geben die Daten direkt zu spiegeln. Einige Docker haben einfach zu viele Daten. Angefangen mit JDownloader und Plex. Edited March 17, 2021 by Vene Quote Link to comment
mgutt Posted March 17, 2021 Share Posted March 17, 2021 36 minutes ago, Vene said: Der Crontab für jeden Tag um 3:30 Uhr morgens müsste doch so aussehen = 30 3 * * * Korrekt 37 minutes ago, Vene said: Musste Server neustarten, da ich kein Zugriff mehr nach ausführen hatte. Wie hast du das Script denn ausgeführt? Im Hintergrund oder den anderen Button? Der andere führt das Script "Im Browser" aus. Kann gut sein, dass dein Browser durch die Menge an Log-Einträgen dann die Biege macht. Aber der Server selbst schmiert deswegen nicht ab. Falls doch stimmt was nicht mit deinem Server, denn mein Script führt ja nur ein simples rsync aus. 39 minutes ago, Vene said: Einige Docker haben einfach zu viele Daten. Angefangen mit JDownloader und Plex. Kinderspiel für rsync. Auch für mein Script. Ich sichere zB noch viel mehr als Du: source_paths=( "/mnt/user/appdata" "/mnt/user/domains" "/mnt/user/Papa" "/mnt/user/Music" "/mnt/user/Kind" "/mnt/user/Mama" "/mnt/user/system" ) backup_path="/mnt/user/Backup" Quote Link to comment
chris75 Posted March 18, 2021 Share Posted March 18, 2021 Hallo mgutt,wollte mal nachfragen ob’s nicht ein video gibt für diesen Thema Da ein Teil auf English ist und ich schwer von Begriff bin [emoji56]wäre das nicht schlecht sorrybin blutiger Anfängerwürde mich sehr freuenGesendet von iPhone mit Tapatalk Quote Link to comment
MartinG Posted March 18, 2021 Share Posted March 18, 2021 Genau @mgutt mach endlich mal ein erklärvideo in Deutsch zu Deinem Script 😁 1 Quote Link to comment
Vene Posted March 18, 2021 Author Share Posted March 18, 2021 13 hours ago, mgutt said: source_paths=( "/mnt/user/appdata" "/mnt/user/domains" "/mnt/user/Papa" "/mnt/user/Music" "/mnt/user/Kind" "/mnt/user/Mama" "/mnt/user/system" ) backup_path="/mnt/user/Backup" Hast du auch ein neues Share eingerichtet oder ist das nicht nötig? Du sicherst direkt über user Pfad, wenn ich nur die Cache Sachen sichern will kann ich statt user auch cache Pfad nutzen oder? Quote Link to comment
mgutt Posted March 18, 2021 Share Posted March 18, 2021 23 minutes ago, Vene said: Hast du auch ein neues Share eingerichtet oder ist das nicht nötig? Jeder Ordner im Root ist automatisch ein Share. Zusätzlich sollte man logischerweise Rechte dafür setzen. Ansonsten kann jeder im Netzwerk darauf zugreifen. 24 minutes ago, Vene said: Du sicherst direkt über user Pfad, wenn ich nur die Cache Sachen sichern will kann ich statt user auch cache Pfad nutzen oder? Ja, aber User enthält auch den Cache, wenn du den Cache auf Yes oder prefer gestellt hast. User = Summe aus Disk und Cache. Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.