SSD für Docker und als Write Cache unterteilen


19 posts in this topic Last Reply

Recommended Posts

Guten Abend,

 

ich schreibe normalerweise nicht viele Daten auf einmal auf mein Array und habe noch eine Samsung SATA SSD aus meinem Desktop Rechner ausrangiert. Nun könnte ich natürlich ebenso eine NVMe SSD kaufen aber zum Testen würde ich gerne zunächst die vorhadene SATA SSD nutzen.

 

Normalerweise hätte ich gesagt ich nutze die SSD nur für Docker, von denen ich eh nicht viele habe.

Dann ist aber immer noch Speicher frei, daher war meine Überlegung fix 150GB als Write Cache zu verwenden.

 

Habe zwar schon im Wiki gelesen aber bin nicht ganz schlau draus geworden.

Kann ich das so definieren?
Hat jemand eine Anleitung für mich?

Link to post

...es ist eher anders herum.

Du kannst den Cache nicht direkt "unterteilen".

Baue die SSD als Cache-Disk in unRaid ein....es wird immer nur der Teil, der frei ist als Write-Cache zum Array verwendet (der mover macht das wieder frei).

 

Dann stellst Du die Shares /mnt/user/appdata, /mn/user/system und /mnt/user/domains so ein, dass diese nur auf dem Cache landen und dort verbleiben.

Insofern wird dann nur noch der freie Rest (bis zur eingestellten Füllgrenze des Cache) für writes verwendet.

Eine andere "Aufteilungsmöglichkeit" gibt es nicht.

 

Um die bestehenden Docker Daten auf dem Cache zu moven...

- die Docker und VM dienste stoppen

- die relevanten Shares auf "cache = prefer" stellen

- den mover manuell starten (im log nachschauen, ob files nicht angetastet werden, weil zB noch geöffnet...dann beheben und mover nochmal startet, bis alles ge-moved ist)

- die Docker und VM Dienste wieder starten

Link to post
  • 2 weeks later...

@Ford Prefect

Ich habe die SSD als Cache eingebaut und dann die shares /mnt/user/appdata, /mn/user/system und /mnt/user/domains auf prefer gesetzt.

Anschließend habe ich den Mover manuell gestartet.

 

Nun habe ich festgestellt, dass die 250GB SSD schon bis auf 30GB befüllt wurde.

Mein share "Medien" ist auch auf prefer gestellt. Das scheint aber automatisch passiert zu sein.

Das habe ich nicht eigenständig geändert.

 

Muss ich das einmal ändern, damit eben meine Daten im cache vorgehalten werden in Form eines Read-Cache?

Denn das will ich ja nicht.

 

Edit:

Habe hier gelesen, dass offenbar "yes" für mein Medienverzeichnis die richtige Wahl ist.

Habe es daher umgestellt und wieder den Mover angestoßen.

Edited by olco
Link to post

ja, Du kannst/must jedes share einzeln konfigurieren mit Cache = YES/NO/Prefer/Only ... keine Ahnung, ob das UI sich das letzte Setting irgendwie merkt.

Wenn Du das Share "Medien" nicht als Read-Cache nutzen willst, solltest Du es auf "Cache = YES" stellen.

Der Mover transportiert das dann wieder "zurück" aufs Array....kannst Du auch manuell starten, jederzeit.

Nur um sicher zu sein: Bei Deiner Aktion hast Du zuerst die Docker- und VM-Dienste unter den Settings deaktiviert, wie ich geschrieben hatte, bevor Du die besagten Shares mit "Prefer" konfiguriert hattest...und erst *nach* der Mover-Aktion wieder gestartet?

 

Welche Grösse hast Du für das Docker.img in den Docker Settings eingestellt? Da können sich dann auch leicht ein paar GB verbergen.

Schau mal im Web-Ui unter "Shares" -> "compute all" button...wie viel ist wo auf dem Cache...das Docker.img ist normalerweise im Share "system" drin (Pfad steht in den Docker Settings)

Link to post

Ich habe aktuell noch keinerlei Docker eingerichtet und installiert.

Ebenso sind keinerlei VMs erstellt.

 

Die Spielerei geht jetzt erst mit SSD los.

 

Docker vDisk size ist auf 20gb eingestellt.

Link to post
2 hours ago, olco said:

Nun habe ich festgestellt, dass die 250GB SSD schon bis auf 30GB befüllt wurde.

Ein Teil davon geht für das Dateisystem drauf. Der Platz für Metadaten und andere Features ist dann bereits reserviert.

Link to post

Ich wunderte mich auch eher, dass direkt über 200GB von den 250GB belegt waren.

Aber lag ja an der falschen Cache Einstellung für das Medien Verzeichnis.

 

Das Docker Image ist jetzt auf 20GB festgelegt.

Ergo werden die 20GB auch bereits verwendet.

Ist das denn dann die Größe für alle Docker, die ich erstelle oder jeweils für jeden Dienst der als Docker läuft zusätzlich 20GB? Letzteres käme mir doch sehr viel vor.

Link to post

Noch was anderes, es gibt doch irgendwo im Board oder Wiki eine Liste mit Einschätzung diverser SSD und inwiefern die sich als Cache sinnvoll einsetzen lassen. Ich finde den Beitrag aber nicht mehr.

 

Ich hatte mich gefragt, ob sich die WD Blue SN550 1TB anbietet, die gibt es ja immer wieder recht günstig im Angebot.

Link to post
8 minutes ago, olco said:

Ich hatte mich gefragt, ob sich die WD Blue SN550 1TB anbietet, die gibt es ja immer wieder recht günstig im Angebot.

Achte auf folgendes:

- DRAM

- TLC oder MLC Zellen

- keine QLC Zellen

- TBW mindestens Speicherplatz x 300 (1TB x 300 = 300TBW)

 

 

Link to post

Ich bin bei sowas skeptisch....womit wird WD das Geld für den Kauf wieder reinholen? Mit weiteren Investitionen in neue Innovationen? Ich bin da nicht überzeugt.

Bestenfalls bleiben die WB Blue auf dem Stand der SanDisk Ultra von vor x Jahren und SanDIsk bleibt die Idee-Schmiede....WD = Masse, SanDIsk Klasse....nennt sich dann Mehr-Marken-Strategie.

 

...natürlich könnte man jetzt sagen, dann sind die WD was Bewährtes ^^

Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.