Ausgebaute WD Elements Festplatte im Dauerbetrieb oder Spindown festlegen?


Vene

Recommended Posts

Hallo unraid-Community,

 

ich habe mir nun auch einen kleinen Homeserver gebaut und betreibe diesen nun mit unraid. Nach dem Update heute auf 6.9.1 habe ich mich auch hier mal angemeldet um mal eine Frage zu stellen. Ich habe mir von Amazon vor paar Wochen günstig 10TB WD Elements gekauft. Diese dann ausgebaut und in den Server rein. Gehäuse ist ein Fractal R5. Platten sind auf so kleinen Gummiabständen (vom Gehäuse direkt). Soll wohl die Vibration verringern.

 

Meine eigentliche Frage ist, da es dort einige Meinungsäußerungen gibt, wie betreibe ich die Platten am besten. Es hängt natürlich von dem ab was ich mit dem Server mache, daher versuche ich es am besten zu beschreiben.

 

Konfiguration besteht aus:

1x 10TB Parity WD100EZAZ

2x 10TB Array WD100EMAZ

1x 1TB SSD Cache (Sata3)

 

Aktuell habe ich als aktive Docker, Plex und JDownloader. Die Docker und VM's befinden sich auf dem Cache (ohne Sicherung).

Die Festplatten habe ich aktuell mit 15Min Spindown festgelegt. 

 

Wann gehen die Platten an?

Wenn über Plex auf eine Serie/Film zugegriffen wird startet die Platte auf dem der Film ist. Alles was über JDownloader runtergeladen wird, landet erstmal auf der Cache. Der Mover verschiebt die Daten dann täglich (Nachts gegen 4 Uhr) auf das Array.

 

Ich vermute also das meine SpinUps täglich bei evtl. 3-4x liegen. Abgesehen vom Stromverbrauch, ist das die beste Entscheidung?

Link to comment
2 hours ago, Vene said:

Ich vermute also das meine SpinUps täglich bei evtl. 3-4x liegen. Abgesehen vom Stromverbrauch, ist das die beste Entscheidung?

Ich fahre mein Setup genauso. Allerdings nutze ich noch mein rsync Script um die SSD alle x Stunden auf die HDD zu sichern:

https://forums.unraid.net/topic/97958-rsync-incremental-backup/

 

Falls die SSD also hopps geht, habe ich in jedem Fall ein Backup von den VMs und Docker Containern.

Link to comment

Ja mir ist leider noch keine Möglichkeit gekommen wie ich die SSD gleichzeitig auf das Array spiegeln kann. Einzig die Einstellung "No" würde nur das Array nutzen, was ich aber nicht möchte.

 

Aber ich schaue mir das Script mal an. Möchte gerade für die Docker und VMs etwas zum spiegeln haben.

Link to comment
18 minutes ago, Ford Prefect said:

die WD REDs, von denen die abgeleitet sind, haben 600tsd load/unload Zyklen im Datenblatt.

Das dachte ich auch immer, stimmt aber nicht nicht. Es sind 50k. Die 600k beziehen sich nur auf den Wechsel zwischen Leerlauf und Lesen/Schreiben:

877412179_2021-03-1723_09_29.png.f6737024ff40ca2503a04b82a588b599.png

 

Bei 4 Spinups pro Tag, hält die Platte also nur 34 Jahre ^^

 

Würde die Platte allerdings 50x pro Tag anlaufen, also ca alle 30 Minuten, dann wäre bereits nach 3 Jahren Schluss.

  • Thanks 1
Link to comment
6 minutes ago, mgutt said:

Würde die Platte allerdings 50x pro Tag anlaufen, also ca alle 30 Minuten, dann wäre bereits nach 3 Jahren Schluss.

Naja also solange Sie mir um die 5-6 Jahre Dienste erweisen ist es in Ordnung dafür das ich dann Jährlich Stromkosten spare kann dann auch mal einfach ne neue rein. Mit der Zeit werden die ja auch immer günstiger, weil neues kommt. Von daher.

Link to comment
48 minutes ago, mgutt said:

User Scripts. Da fügst du mein Script hinzu und bestimmst über das Dropdown die Ausführzungszeit. Oder "Custom" und dann eine Cronjob-Regel wie 0 */12 * * * um das Backup alle 12 Stunden auszuführen.

Hoffe ich hab das jetzt richtig gemacht. Hab mir User Scripts geladen, dann neues Script erstellt, dein Template eingefügt und folgendes geändert

 

    "/mnt/cache/appdata"
    "/mnt/cache/system"
)
backup_path="/mnt/user/BackUp"

 

Dazu habe ich ein neues Share eingerichtet (weis nicht ob es notwendig war) mit dem Namen BackUp und Cache "No".

 

Der Crontab für jeden Tag um 3:30 Uhr morgens müsste doch so aussehen = 30 3 * * *

 

Edit:

Musste Server neustarten, da ich kein Zugriff mehr nach ausführen hatte. Er hat angefangen die Daten zu sichern, aber hat ewig gedauert. Wollte dann webterminal starten, kam nix. Also normaler Reboot. Schaue mir das morgen nochmal in Ruhe an. Es muss doch irgendeine schnellere Möglichkeit geben die Daten direkt zu spiegeln. Einige Docker haben einfach zu viele Daten. Angefangen mit JDownloader und Plex.

Edited by Vene
Link to comment
36 minutes ago, Vene said:

Der Crontab für jeden Tag um 3:30 Uhr morgens müsste doch so aussehen = 30 3 * * *

Korrekt

 

37 minutes ago, Vene said:

Musste Server neustarten, da ich kein Zugriff mehr nach ausführen hatte.

Wie hast du das Script denn ausgeführt? Im Hintergrund oder den anderen Button? Der andere führt das Script "Im Browser" aus. Kann gut sein, dass dein Browser durch die Menge an Log-Einträgen dann die Biege macht. Aber der Server selbst schmiert deswegen nicht ab. Falls doch stimmt was nicht mit deinem Server, denn mein Script führt ja nur ein simples rsync aus.

 

39 minutes ago, Vene said:

Einige Docker haben einfach zu viele Daten. Angefangen mit JDownloader und Plex.

Kinderspiel für rsync. Auch für mein Script. Ich sichere zB noch viel mehr als Du:

source_paths=(
    "/mnt/user/appdata"
    "/mnt/user/domains"
    "/mnt/user/Papa"
    "/mnt/user/Music"
    "/mnt/user/Kind"
    "/mnt/user/Mama"
    "/mnt/user/system"
)
backup_path="/mnt/user/Backup"

 

Link to comment
13 hours ago, mgutt said:

 


source_paths=(
    "/mnt/user/appdata"
    "/mnt/user/domains"
    "/mnt/user/Papa"
    "/mnt/user/Music"
    "/mnt/user/Kind"
    "/mnt/user/Mama"
    "/mnt/user/system"
)
backup_path="/mnt/user/Backup"

 

Hast du auch ein neues Share eingerichtet oder ist das nicht nötig?

 

Du sicherst direkt über user Pfad, wenn ich nur die Cache Sachen sichern will kann ich statt user auch cache Pfad nutzen oder?

Link to comment
23 minutes ago, Vene said:

Hast du auch ein neues Share eingerichtet oder ist das nicht nötig?

Jeder Ordner im Root ist automatisch ein Share. Zusätzlich sollte man logischerweise Rechte dafür setzen. Ansonsten kann jeder im Netzwerk darauf zugreifen.

 

24 minutes ago, Vene said:

Du sicherst direkt über user Pfad, wenn ich nur die Cache Sachen sichern will kann ich statt user auch cache Pfad nutzen oder?

Ja, aber User enthält auch den Cache, wenn du den Cache auf Yes oder prefer gestellt hast. User = Summe aus Disk und Cache.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.