HDD Spin-Down für Plex / Emby


EliteGroup

Recommended Posts

Hallo Leute,
eigentlich wollte ich für Emby ein Share einrichten mit dem namen "Media" wie es die meisten tun,

jetzt habe ich gesehen das man für Shares eigene DIsks erlauben bzw verbieten kann.
Also dachte ich mir ob es nicht praktischer wäre wenn man nicht die Ordner in "Media" anlegt sondern als eigene Shares wie:
Filme, Serien, Dokus, Animes etc
Was bei mir zb täglich verwendet wird sind Serien & Dokus, dagegen Filme mehere Tage nicht. Würde es so den HDDs nicht besser gehen wenn alle unterordner einzeln angelegt werden und dann Disk zuweisen welche nur für Filme und andere Platten für Serien? Dann könnte man Spin-Down bei den HDDs einrichten und die Platten auf den "Filme" sind können Tage oder Wochen im Ruhezustand sein wenn sie nicht gebraucht werden, oder hab ich da was falsch verstanden?
Wenn ich nur den Share "Media" erstelle geht das ganze wohl nicht? Ich müsste halt einige Shares extra erstellen und konfigurieren.
Ist das eine gute Idee oder Blödsinn

Link to comment
5 hours ago, EliteGroup said:

Also dachte ich mir ob es nicht praktischer wäre wenn man nicht die Ordner in "Media" anlegt sondern als eigene Shares wie:
Filme, Serien, Dokus, Animes etc

 

Klar, mache ich so. Meine Platten schlafen eigentlich durchgängig und fahren nur hoch wenn sie benötigt werden. In Deinem Fall würde ich die am meisten benötigten Shares gemeinsam auf Platten legen. Wenn Du dann in Plex statt mit User Shares mit Disk Shares arbeitest, dann wird es richtig interessant. Beispiel:

 

2x Platten mit häufig benutztem (Serien, Dokus) und zwei Platten mit weniger häufig benutztem (Filme). In Plex trägst Du

 

Library Dokus:

/mnt/disk1/Dokus

/mnt/disk2/Dokus

 

Library Serien:

/mnt/disk1/Serien

/mnt/disk2/Serien

 

Library Filme:

/mnt/disk3/Filme

/mnt/disk4/Filme

 

Wenn es passt könntest Du Dokus und Serien auch noch auf die Platten verteilen.

 

Diese Anordnung nutze ich seit Jahren. Plex kann "unbegrenzt" Ordner pro Library aufnehmen - das Datenbank Design gibt das her. Bei der Verwendung von Disk Shares in Plex erübrigt sich das unter Umständen notwendige Caching um das Hochfahren eines ganzen User Shares zu umgehen. Das ist einfach nur perfekt so - und vor allen Dingen: Stromsparend.

 

Edited by hawihoney
Link to comment
5 hours ago, mgutt said:

Je nach Verteilungsregel kannst du ja die Unterordner auf einer Platte halten. Auf die Art bleiben Serien immer komplett auf einer Platte.

Wie ist das wenn man 2 HDDs für Filme und 2 für Serien hat? Wenn ich den Unterordner auf 2 Platten anlege wird dann bei Speichern automatisch auf diesen 2 die Daten gespeichert solang Platz verfügbar ist, ohne den Unterordner auf Platte 3 anzulegen...? Das erfordert wohl immer kontrolle das er mal beim ansammeln von Daten nicht auf die falsche Platte über geht.

 

2 hours ago, speedycxd said:

Du könntest für deine Filme etc auch eine Cloud nutzen.

Vorteil: Du brauchst nicht viele Platten und die Stromkosten sind auch gering.

Das hatte ich alles schon. Früher als es noch Amazon Cloud Drive Unlimited gab, das wurde eingestellt und dann bin ich zu Google Gsuite Unlimited übersiedelt, sogar mit Hetzner-Server. Aber mit den Mounting Tools (hatte alle durch) lief das einfach nicht so sauber wie ich es wollte...

 

1 hour ago, hawihoney said:

Klar, mache ich so. Meine Platten schlafen eigentlich durchgängig und fahren nur hoch wenn sie benötigt werden. In Deinem Fall würde ich die am meisten benötigten Shares gemeinsam auf Platten legen. Wenn Du dann in Plex statt mit User Shares mit Disk Shares arbeitest, dann wird es richtig interessant. Beispiel:
...

Also du arbeitest immer "direkt" mit den Platten? Das heißt auch das ich das beim Speichern von Daten immer berücksichtigen muss was sonst automatisch ginge. Das ist halt der nachteil. Deshalb frage ich ja ob das vilt automatisch / schöner ginge

Edited by EliteGroup
Link to comment
7 minutes ago, EliteGroup said:

Das hatte ich alles schon. Früher als es noch Amazon Cloud Drive Unlimited gab, das wurde eingestellt und dann bin ich zu Google Gsuite Unlimited übersiedelt, sogar mit Hetzner-Server. Aber mit den Mounting Tools (hatte alle durch) lief das einfach nicht so sauber wie ich es wollte...

Ok, kann ich nicht ganz nachvollziehen. Ich arbeite hier mit rclone und userScripts tool. Es läuft seit dem ich meinen Server habe, also seit über 1 Jahr ohne Probleme. Ich habe auch Gdrive als Enterprise Unlimited....

 

Wenn ich jetzt bedenke wie viele Platten ich für 100 TB brauche inkl. Strom finde ich das immer noch am besten.

Edited by speedycxd
Link to comment
3 minutes ago, speedycxd said:

Ok, kann ich nicht ganz nachvollziehen. Ich arbeite hier mit rclone und userScripts tool. Es läuft seit dem ich meinen Server habe, also seit über 1 Jahr ohne Probleme. Ich habe auch Gdrive als Enterprise Unlimited....

 

Wenn ich jetzt bedenke wie viele Platten ich für 100 TB brauche inkl. Strom finde ich das immer noch am besten.

Das kommt ganz auf die vorhandene Leitung drauf an. Früher LTE jetzt 5G. Das kann ganz schön schwanken und für Cloud-Stream ist das sehr schlecht.
Außerdem gab es früher sehr oft Probleme mit Untertitel (keine Ahnung ob das jetzt immer noch so ist). Ich hab mich damit 2 Jahrelang geärgert und ein Homeserver funktioniert einfach selbst wenn das Internet spinnt 😉
Mit Gsuite bzw jetzt Google "Workspace" ist es ja auch vorbei mit Unlimited... Früher gab es noch im Business Plan Unlimited das gibt es nur noch wenn man ein altes Konto hat und den Vertrag nicht beendet. Bei Enterprise steht kein Preis und keine Ahnung wie die vorraussetzungen noch sind das zu bekommen.
Das größte Problem ist daran wie meine Jahrelange erfahrung gezeigt hat wie oft Projekte eingestampft oder limitiert werden. Macht Google genauso wie man sieht. Blöd wenn man aufeinmal da steht wenn es mit Unlimited vorbei ist.
Wichtig ist auch auf das Transferlimit zu achten, das ist bei Google großzügig aber bei überschreiten geht ein Bann bei Google sehr schnell. Das sind halt die negativ gründe an Cloud. Sonst wäre ich voll dabei. Hatte selbst früher über 30TB auf Gsuite und hab alles gelöscht

Link to comment

Dann hast du dich nicht richtig mit dem Thema beschäftigt

Es gibt immer noch einen Unlimited, und das ist der Enterprise Account. Selbst beim Business geht das noch, und zwar mit den Team Drives.

 

Deine genannten Probleme hatte ich noch nie, auch mit Untertitel keine. 

Zum Transfer Limit, hier regel ich (bzw wir eine kleine Share Group) das über Google Services. Wir haben 100 Team Drives miteinander verbunden, und umgehen so das Upload Limit von 750 GB am Tag völlig legal.

 

Das Download Limit liegt bei glaube ich 10 TB am Tag wenn ich mich nicht Irre. 

Ich mache da auch nix über Handy usw, aber wir haben ein paar Leute die Streamen mit Plex oder Jellyfin auch darüber Problemlos. 

 

 

Edited by speedycxd
Link to comment
1 hour ago, EliteGroup said:

Wie ist das wenn man 2 HDDs für Filme und 2 für Serien hat?

Ich habe deswegen /Filme/A/ 😉

 

1 hour ago, EliteGroup said:

Das erfordert wohl immer kontrolle das er mal beim ansammeln von Daten nicht auf die falsche Platte über geht.

Wie gesagt. Wenn du das Split Level entsprechend festlegst, wechselt der nicht die Platte. Allerdings musst du dann ausrechnen welche Anfangsbuchstaben wohin sollen.

 

 

 

 

Link to comment
2 hours ago, EliteGroup said:

Also du arbeitest immer "direkt" mit den Platten? Das heißt auch das ich das beim Speichern von Daten immer berücksichtigen muss was sonst automatisch ginge. Das ist halt der nachteil

 

Das Eine hat mit dem Anderen nichts zu tun. Du kannst trotzdem in User Shares kopieren, hinterlegst aber die zugehörigen Ordner auf den Disks in den Plex Bibliotheken und schon ist Deine Anforderung bzgl. maximalem Spin-Down erfüllt.

 

Link to comment
  • 1 month later...

So ich hätte noch eine Frage an euch:
Ich habe jetzt alle Daten auf Unraid transferiert, jetzt wird es an der Zeit die Parity-Platte aktivieren, das wird bestimmt einige Zeit beanspruchen bis Unraid damit fertig ist.
Ich müsste nur wissen ob man bei der Paritätserstellung die Platten fürs System verwenden kann? Zumindest nur "lesen".
Oder geht das erst wenn die Parität fertig erstellt wurde?

 

Link to comment
23 minutes ago, EliteGroup said:

Ich müsste nur wissen ob man bei der Paritätserstellung die Platten fürs System verwenden kann? Zumindest nur "lesen".
Oder geht das erst wenn die Parität fertig erstellt wurde?

Während die Parity erstellt wird kannst du lesen und schreiben, alles ganz normal, mit dem Unterschied das es wahrscheinlich alles ein wenig länger dauert da von allen Platten gleichzeitig gelesen wird und auf die Parity geschrieben und wenn du viel liest und schreibst wird die Paritätserstellung länger dauern.

 

Median ansehen usw. ist aber problemlos möglich und fällt nicht wirklich auf.

  • Thanks 1
Link to comment

Die Parity erstellung hat super funktioniert und war schneller als gedacht (12 Stunden, 15 Minuten, 59 Sekunden)
 

Etwas kommt mir seltsam vor... Ich habe jetzt Cache aktivert (Cache verwerden "Ja")
Trotzdem werden alle Ordner und Datein die man erstellt direkt auf das Array geschrieben, ist das normal? Unter "user/freigabe" und "user0/freigabe"

Nur wenn ich unter "cache/freigabe" was erstelle erscheint es unter "user" und der Mover macht seine Arbeit. Aber was unter "user" erstellt wird packt der sofort auf das Array.
Das betrifft beim erstellen mit "Krusader" aber auch den Netzwerkshare und Docker-Apps die Datein erstellen, alles wird immer auf das Array gepackt.
Ist das so richtig? Ich kann ja schwer extra nur für neue Daten den "cache" Ordner zusätlich mounten. Ich dachte neue daten unter "user/freigabe" werden dann auf den Cache-Pool geschrieben und erst der Mover packt es auf das Array. Aktuell geht das nur wenn ich direkt auf /cache/freigabe schreibe

Die Freigabe:
1freigabe.PNG.3ca2bd71ddc45263811f8b16593ed9ab.PNG

 

Das Array:
2array.thumb.PNG.203e9f819cf4320daa894b441706bb6d.PNG

 

Cache-Pool ist temporäre datein / freigaben und der Cache für das Array.
Data-Pool ist für "appdata", "domains" etc ohne Array (Die Daten werden extra abgesichert)

Link to comment
29 minutes ago, EliteGroup said:

Nur wenn ich unter "cache/freigabe" was erstelle erscheint es unter "user" und der Mover macht seine Arbeit. Aber was unter "user" erstellt wird packt der sofort auf das Array.

so ganz verstehe ich den Satz jetzt nicht, egal.

 

/mnt/user/Freigabe  <- da sollte cache yes greifen, sprich, alle neue Daten landen auf dem cache (wenn genug Platz da ist)

/mnt/user0/Freigabe  <- da greift cache NICHT, sprich, mit user0 sprichst du NUR das array an

 

war das die Frage ? oder funktioniert tatsächlich /mnt/user/... nicht ?

 

zeig mal ein Screen eines Shares bei Dir in unraid um die Verteilung zu sehen (Reiter Shares, rechte Seite, view)

 

image.thumb.png.f1c46292c50d3f4663469eb249d326b0.png

Link to comment
3 minutes ago, alturismo said:

so ganz verstehe ich den Satz jetzt nicht, egal.

 

/mnt/user/Freigabe  <- da sollte cache yes greifen, sprich, alle neue Daten landen auf dem cache (wenn genug Platz da ist)

/mnt/user0/Freigabe  <- da greift cache NICHT, sprich, mit user0 sprichst du NUR das array an

 

war das die Frage ? oder funktioniert tatsächlich /mnt/user/... nicht ?

 

zeig mal ein Screen eines Shares bei Dir in unraid um die Verteilung zu sehen (Reiter Shares, rechte Seite, view)

 


Ich glaube ich habe den Fehler gefunden...
Ich habe einen neuen Share erstellt "mytest" und da funktioniert alles (exakt die gleichen settings wie bei "media")
Ich habe auch neugestartet und es klappt nicht mit "media"... Ich muss wohl den Share löschen und neu erstellen, ich dachte das geht ohne löschen?

Egal was ich mache, was ich in /user/media/... schreibe landet direkt auf den Platten.... Ich kann nur auf /cache/media schreiben so das es auf dem Cache liegt, komisch ist das er es verstanden hat und was unter /cache/media ist, ist auch sichtbar unter /user/media

Ich werde jetzt mal den Share löschen und neu erstellen. Ich poste ob es dann funktioniert, ich werde die selben Settings für den Share benutzen

Link to comment
1 hour ago, alturismo said:

/mnt/user/Freigabe  <- da sollte cache yes greifen, sprich, alle neue Daten landen auf dem cache (wenn genug Platz da ist)


Edit:
Ok nein nichts funktioniert... egal was ich mache er schreibt immer auf das Array.
Aber jetzt weiß ich wieso:
 

1freigabe.PNG.2cf791d165b56260b3c8adeafa25529c.PNG

 

Minimaler freier Speicherplatz: 1TB
<- ich möchte auf den Platten 1TB Platz lassen und sie nicht ganz füllen. Ich dachte das betrifft nur das Array und nicht den Cache?
Das Feld ist deaktiviert wenn man "Nur" Cache auswählt. Ich hab das jetzt 5 mal ein und aus geschaltet. Wenn ich das Feld lösche schreibt er auf die Cache Platten, trage ich 1TB ein, wird nur auf die Disk geschrieben die auch 1TB frei hat (Disk 3 in meinem Fall) und nie wird auf den Cache geschrieben.

Der Cache ist eine Samsung_SSD_980_1TB
Also 1TB, somit zuwenig freier Platz wenn das auch für Cache gilt.
Wie kann ich 1TB auf meinen Platten "Luft" lassen und trotzdem Cache verwenden?

Egal bei welcher Freigabe, auch wenn ich neue erstelle, der "Minimaler freier Speicherplatz" wird auch der Cache hergenommen.
Kann man das deaktivieren?
Selbst wenn ich 500GB nehmen würde, würde es mir nicht helfen da auf den Cache-Pool auch andere Daten landen die nicht aufs Array geschoben werden.

Edited by EliteGroup
Link to comment
16 minutes ago, EliteGroup said:

Kann man das deaktivieren?

 

sorry, nicht dass ich wüsste, hat auch eigentlich einen anderen Gedanken ... das du immer noch Luft hast für die "größte" Datei im Notfall zu schreiben ...

 

Warum du jetzt auf 1 TB gehst wird seine Gründe haben, aber da ist jetzt wohl "entweder oder ..."

Link to comment

Dann habe ich wohl keine andere Wahl als die Platten zu füllen.

Es fehlt mir trotzdem etwas das Verständnis warum man eine Cache Platte limitieren sollte, bzw eine Cache-Platte ist immer ein kleinerer "Zwischenspeicher" der nie so groß wie die Hauptplatte ist. Möchte man wirklich auch den Cache limitieren, sollten dafür extra Parameter eingeben werden können. Nach dieser Logik müsste ich eine 2TB Cache SSD kaufen die dann immer zur hälfte leer bleibt und das doppelte Budget kostet.
🤔

Link to comment
33 minutes ago, EliteGroup said:

Es fehlt mir trotzdem etwas das Verständnis warum man eine Cache Platte limitieren sollte

 

Das hat etwas mit dem Gesamtkonstrukt Cache und dessen Historie zu tun. Traditionell wird der Cache nicht nur als schneller Schreibcache für das Array verwendet, sondern auch als Ablage für die Subsysteme Docker und KVM. Das Limit ist nur ein Schutz für diese.

 

Mit dem neuen Multiple-Pools Feature ist das zwar nicht mehr ganz so wichtig, aber viele betreiben nach wie vor einen einzelnen Pool/Cache für all diese Daten.

 

  • Thanks 1
Link to comment
5 hours ago, mgutt said:

Das klingt nach einem Bug. Denn für die Pools gibt es eine separate Einstellung. Bitte melden!

Könntest du bitte etwas genauer darauf eingehen?
Was bedeutet "seperate Einstellung"

Vilt. liegt der Fehler ja an meiner Seite / meinen Einstellungen.
Unter Datenträger Einstellungen habe ich angegeben:

Standardwarnschwelle für hohe Datenträgerauslastung (%): 75

Standardschwelle für kritische Datenträgerauslastung (%): 90

Rest standard

Unter den Shares den Type "Fill-up"
Und Minimaler freier Speicherplatz: angegeben

 

Ich wollte 1TB angeben, da haben die Shares immer den Cache-Pool (1TB SSD) mit eingebzogen und somit nie auf den Cache geschrieben.
Ich habe aktuell 100GB eingestellt, jetzt funktioniert es, jedoch muss mindestens 100GB auf der Cache Platte frei sein damit auf dem Cache geschrieben wird.

Unraid Version: 6.9.2

Edited by EliteGroup
Link to comment
13 minutes ago, EliteGroup said:

Minimaler freier Speicherplatz

Diesen Wert kann man auch einstellen, wenn man auf einen Pool klickt. Und es macht keinen Sinn beides einstellbar zu machen, wenn der Share Wert auch beim Pool gilt, was ja offensichtlich der Fall ist.

 

Screenshot_20211105-195137.thumb.png.449acb28abffa8df4bdb226955de67a6.png

 

Das macht ja deswegen schon keinen Sinn, weil SSDs selten so groß sind wie HDDs.

Link to comment
1 hour ago, mgutt said:

Das macht ja deswegen schon keinen Sinn, weil SSDs selten so groß sind wie HDDs.

 

ich denke jedoch da die Werte nicht anzupassen sind solange die Disk user Share assigned ist greift die Share Regel und nicht die einzelne Platte ... diesen Wert gibt es ja auch für die disk(s) an sich im array, gleiches Spiel, nicht zu editieren ... wäre die Frage wenn array stopped ist ob er dann individuell einstellen kann, habe ich jetzt nicht getestet

Link to comment
  • 2 months later...

@mgutt

Also meine Platte ist jetzt bei 86%
Einstellung:

Standardwarnschwelle für hohe Datenträgerauslastung (%): 80

Standardschwelle für kritische Datenträgerauslastung (%): 85

 

Und trotzdem schiebt der mover weiter auf Disk 1

Die Share Settings:
share.JPG.de32f63b70c1b8219519ec50d8c533f6.JPG

Dachte er schiebt bei 85% auf Disk 3 statt Disk 1
 

Gibt es keine möglichkeit etwas Platz auf einer Platte zu lassen?
Ich teste das weil ich die Platten maximal zu 95% füllen möchte. Beste möglichkeit ist wohl auf 95% füllen und dann rechtzeitig auf "Most free" stellen, wie ich das sehe

Edited by EliteGroup
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.