EliteGroup

Members
  • Posts

    39
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

EliteGroup's Achievements

Newbie

Newbie (1/14)

4

Reputation

  1. Könntest du bitte etwas genauer darauf eingehen? Was bedeutet "seperate Einstellung" Vilt. liegt der Fehler ja an meiner Seite / meinen Einstellungen. Unter Datenträger Einstellungen habe ich angegeben: Standardwarnschwelle für hohe Datenträgerauslastung (%): 75 Standardschwelle für kritische Datenträgerauslastung (%): 90 Rest standard Unter den Shares den Type "Fill-up" Und Minimaler freier Speicherplatz: angegeben Ich wollte 1TB angeben, da haben die Shares immer den Cache-Pool (1TB SSD) mit eingebzogen und somit nie auf den Cache geschrieben. Ich habe aktuell 100GB eingestellt, jetzt funktioniert es, jedoch muss mindestens 100GB auf der Cache Platte frei sein damit auf dem Cache geschrieben wird. Unraid Version: 6.9.2
  2. Dann habe ich wohl keine andere Wahl als die Platten zu füllen. Es fehlt mir trotzdem etwas das Verständnis warum man eine Cache Platte limitieren sollte, bzw eine Cache-Platte ist immer ein kleinerer "Zwischenspeicher" der nie so groß wie die Hauptplatte ist. Möchte man wirklich auch den Cache limitieren, sollten dafür extra Parameter eingeben werden können. Nach dieser Logik müsste ich eine 2TB Cache SSD kaufen die dann immer zur hälfte leer bleibt und das doppelte Budget kostet. 🤔
  3. Edit: Ok nein nichts funktioniert... egal was ich mache er schreibt immer auf das Array. Aber jetzt weiß ich wieso: Minimaler freier Speicherplatz: 1TB <- ich möchte auf den Platten 1TB Platz lassen und sie nicht ganz füllen. Ich dachte das betrifft nur das Array und nicht den Cache? Das Feld ist deaktiviert wenn man "Nur" Cache auswählt. Ich hab das jetzt 5 mal ein und aus geschaltet. Wenn ich das Feld lösche schreibt er auf die Cache Platten, trage ich 1TB ein, wird nur auf die Disk geschrieben die auch 1TB frei hat (Disk 3 in meinem Fall) und nie wird auf den Cache geschrieben. Der Cache ist eine Samsung_SSD_980_1TB Also 1TB, somit zuwenig freier Platz wenn das auch für Cache gilt. Wie kann ich 1TB auf meinen Platten "Luft" lassen und trotzdem Cache verwenden? Egal bei welcher Freigabe, auch wenn ich neue erstelle, der "Minimaler freier Speicherplatz" wird auch der Cache hergenommen. Kann man das deaktivieren? Selbst wenn ich 500GB nehmen würde, würde es mir nicht helfen da auf den Cache-Pool auch andere Daten landen die nicht aufs Array geschoben werden.
  4. Ich glaube ich habe den Fehler gefunden... Ich habe einen neuen Share erstellt "mytest" und da funktioniert alles (exakt die gleichen settings wie bei "media") Ich habe auch neugestartet und es klappt nicht mit "media"... Ich muss wohl den Share löschen und neu erstellen, ich dachte das geht ohne löschen? Egal was ich mache, was ich in /user/media/... schreibe landet direkt auf den Platten.... Ich kann nur auf /cache/media schreiben so das es auf dem Cache liegt, komisch ist das er es verstanden hat und was unter /cache/media ist, ist auch sichtbar unter /user/media Ich werde jetzt mal den Share löschen und neu erstellen. Ich poste ob es dann funktioniert, ich werde die selben Settings für den Share benutzen
  5. Die Parity erstellung hat super funktioniert und war schneller als gedacht (12 Stunden, 15 Minuten, 59 Sekunden) Etwas kommt mir seltsam vor... Ich habe jetzt Cache aktivert (Cache verwerden "Ja") Trotzdem werden alle Ordner und Datein die man erstellt direkt auf das Array geschrieben, ist das normal? Unter "user/freigabe" und "user0/freigabe" Nur wenn ich unter "cache/freigabe" was erstelle erscheint es unter "user" und der Mover macht seine Arbeit. Aber was unter "user" erstellt wird packt der sofort auf das Array. Das betrifft beim erstellen mit "Krusader" aber auch den Netzwerkshare und Docker-Apps die Datein erstellen, alles wird immer auf das Array gepackt. Ist das so richtig? Ich kann ja schwer extra nur für neue Daten den "cache" Ordner zusätlich mounten. Ich dachte neue daten unter "user/freigabe" werden dann auf den Cache-Pool geschrieben und erst der Mover packt es auf das Array. Aktuell geht das nur wenn ich direkt auf /cache/freigabe schreibe Die Freigabe: Das Array: Cache-Pool ist temporäre datein / freigaben und der Cache für das Array. Data-Pool ist für "appdata", "domains" etc ohne Array (Die Daten werden extra abgesichert)
  6. So ich hätte noch eine Frage an euch: Ich habe jetzt alle Daten auf Unraid transferiert, jetzt wird es an der Zeit die Parity-Platte aktivieren, das wird bestimmt einige Zeit beanspruchen bis Unraid damit fertig ist. Ich müsste nur wissen ob man bei der Paritätserstellung die Platten fürs System verwenden kann? Zumindest nur "lesen". Oder geht das erst wenn die Parität fertig erstellt wurde?
  7. Der Vorteil wenn du NFO speicherung aktiviert hast ist der, das Emby bei neueinlesen alle Meterdaten ließt die du auch vorher hattest. Bilder/Covers die nicht im Medienverzeichnis gespeichert werden (was ich auch nicht empfehle) muss man dann aber per Hand alle neu wählen... Ich würde frisch das Docker von "emby/embyserver" wählen. Der Vorteil ist dann du kannst in Zukunft auf jeden System umziehen das Docker beherrscht. Zu einem Umzug: Du kannst es einfach versuchen... Du siehst eh ob es klappt. 1. Installier auf Unraid Emby im Docker 2. Im Docker Template solltest du den selben Mount point wählen wie es unter DS ist 3. Stoppe Emby auf DS und auf Unraid Jetzt kannst du versuchen die Software Struktur rüber zu kopieren (mach vilt von deiner Emby installation ein Backup und speicher diese als ZIP oder RAR) Der Vorteil ist du musst noch nicht mal deine Medien rüber kopieren um Emby zu starten, Emby funktioniert auch und zeigt alle Medien an auch wenn die Daten nicht gemountet sind. Du darfst nur keinen Bibliotheken Scann durchführen (Auch in den Cronjobs beenden) Solltest du es nicht hinbekommen kannst du immer noch Emby wieder löschen und frisch installieren.
  8. Wenn man sich ein Cosair Netzteil zb HX Serie kauft mit "digitaler Schnittstelle" In Unraid gibt es ein Plugin: Corsair PSU Statistics Zeigt die Watt vom Netzteil direkt im Dashboard an. Die Netzteile sind jedoch nicht günstig. Ich hätte so ein gekauft wenn der Preis gepasst hätte. USV ist sowieso keine schlechte Anschaffung und heute nicht mehr teuer. Ich hab ein APC Back-UPS (gibt es ab 100€ je nach VA Leistung) gekauft. Per USB wird im Dashboard der aktuelle Verbrauch in Watt angezeigt. Für mich persönlich die beste Lösung, Stromausfall sicherheit + Dashboard Info
  9. Nach den Text klingt es etwas verwirrend. Möchtest du die Emby installation umziehen oder neu installieren und es "frisch" einlesen? Andere Frage: Ist die Emby installation auf deiner Synology ein Docker Container? Plugins findest du unter ".../plugins" Statistics hat eine save Datei unter ".../plugins/configurations/Statistics" Playback Reporting (Plugin) kannst du einfach in der WebGUI unter Playback Reporting -> Settings -> Save Backup Data Absichern und wieder einspielen mit "Load Backup Data"
  10. Also Windows 11 lässt sich so nicht installieren, man braucht zusätzlich TPM
  11. Ach warm wird die SSD von alleine auch 😉 Aber dank eurer Infos kann ich den Winter über die aktive Lüftung deaktivieren, im Sommer geht die SSD bestimmt über die 50C da nützt es was. 👍 Ohne Lüftung nur passiv pendelt sich die SSD (bei mir) immer auf 33C° ein und haltet den Wert
  12. Nicht flasch verstehen, ich hatte kein Problem mit der Temperatur, ich habe nur gleich vorgesorgt. Es ist jetzt sehr kalt geworden und ich habe eine Raumtemperatur von 10-15C Die SSD geht trotzdem auf 38C° Die 980 Pro kann recht warm werden. Im Sommer wird es weit wärmer, einer kühlen SSD geht es besser als eine die Überhitzt 😉 Ich wollte nur die USB Blende bestellen aber Versand nur dafür etwas schade... Es kann wohl nicht schlechter sein die SSD mehr zu kühlen. Ich mach lieber gleich etwas besser als auf Probleme zu warten --- PS: Zufällig eben auf Twitter gesehen: 980 Pro mit Heatsink: Samsungs SSD-Flaggschiff bekommt Kühler für die PS5
  13. Update: Die M.2 Samsung SSD 980 PRO 2TB wird trotz passivkühler sehr heiß. Um 12€ hab ich den Kühlkörper IcyBox SSD M.2 IB-M2HSF-703 bestellt und montiert (gleich 2 Stk, es wird eine zweite M.2 in Zukunft kommen) Zusätzlich habe ich den typischen Aufkleber auf der Oberseite entfernt und an die Rückseite geklebt, der verschlechtert den Kontakt zum Wärmeleitpad Durch das entfernen des Aufklebers und der aktiven Kühlung konnte ich die Temperatur der SSD um 9C° senken. Bin zufrieden mit diesen Ergebnis, habe nicht so viel erwartet 🙂 Gleich mit bestellt eine USB 2.0 Slotblende um die 4x Anschlüsse den Mainboards nutzen zu können für Geräte die kein 3.0+ benötigen (zb APC USV)
  14. @Ford Prefect Hey, ich hab ein bisscher rum gespielt und die Sache ist wohl anders als gedacht 😁 Ich habe meine zwei Docker Container auf "Custom: eth1" mit dem extra "--dns=" Bonding / Bridge habe ich deaktiviert und auch kein Docker-Bidge Netzwerk. Die Container auf eth1 können sich untereinander anpingen Die Container haben keinen zugriff auf Unraid, andere Container die nicht auf eth1 sind oder VMs (Netze außerhalb von eth1 fließen über die FIrewall, da kann geregelt werden zugriff ja oder nein) Weiteres habe ich mit Iperf die Geschwindigkeit unter den zwei Containern getestet. Angebunden sind sie auf eth1 mit 1Gbps, untereinander habe ich eine Geschwindigkeit von 35-40 Gbps konstant getestet. Das hießt benötigt man überhaupt noch eine Bridge? Wohl eher nur wenn man nur 1 Netz hat und bestimmte Dienste trennen möchte? Wenn eth1 schon ein eigenes Netz ist, braucht man die Bridge garnicht und die Container untereinander agieren als Switch. Ich weiß nicht wie hoch die Gbps sind im standard (docker0) Bridge. Müsste ich noch testen aber ich denke nicht höher als die 40Gbps? Die Bridge hat nach meiner neuen Ansicht nur einen Vorteil: Man hat nicht für jeden Dienst eine eigene IP sondern einfach die IP von Unraid, man muss sich "nur" den Port merken. Das geht unter eth1 nicht, jeder Docker hat eine eigene IP, aber da es sowieso ein eigenes Netz ist und ich unwarscheindlich mehr als 250 Dienste laufen lasse, reicht das /24 Netz sonst einfach /16 auch möglich. Damit habe ich korrekt erfüllt was mein Wunsch einem separierten Netzwerk war? Eigenes Netzwerk abgeschottet vom rest des Systems Dienste auf eth1 untereinander können kommunizieren Dienste auf eth1 untereinander haben 40Gbps Verbindung, nach außen / zu andere Netze 1Gbps über eth1 / die Firewall Diese Dienste kann ich ohne sorgen über das Internet freigeben. Es gibt nur einen Nachteil das mein LAN "nur" maximal 1Gbps auf diese Dienste hat (Mit einer 10Gbps Karte oder LAG könnte man das erweitern). Aber das ist anders auch garnicht möglich, sonst müssten sich diese Dienste im selben Netzwerk befinden. In meinem / den meisten Fällen reichen also die 1Gbps vollkommen aus, nur bei Daten Shares oder VMs wäre das evtl zu gering, diese Dienste habe ich sowieso im lokalen LAN nicht in dem separierten Netzwerk. Ich denke ich brauche keine Bridge und Custom: eth1 erfüllt alles benötigte. Nur --dns muss gesetzt werden wenn man den lokalen DNS Dienst auf der Firewall verwenden möchte. Hat man public DNS kann man das auch überspringen. 🙂
  15. Auch eine gute Info, hab mir vorhin die änderungen in 6.10 angesehen, werde ich als nächstes eine Unraid 6.10-RC1 installation auf einen Test-Rechner machen um zusehen was da passiert. 😄