Jump to content

Kabelgewirr

Members
  • Posts

    15
  • Joined

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Kabelgewirr's Achievements

Noob

Noob (1/14)

0

Reputation

  1. Vielleicht auch noch interessant - Samsung M.2 NVMEs bei OTTO... Z.B... Samsung 980 Pro 2TB für 151,88 € (link) Samsung 970 Evo Plus 2TB für 136,38 € (link) ...bei Aktivierung des 10% Rabatts auf Multimedia Produkte. Zusätzlich 10 € Rabatt pro Bestellung für Neukunden. Versandkosten 4,95 €.
  2. Mindfactory hat die 14TB Toshiba Enterprise Capacity (MG07ACA14TE) aktuell im Angebot für 199€. Beim "Midnight Shopping" entfallen dann auch die Versandkosten (Bestellung in der Zeit von 0 bis 6 Uhr). https://www.mindfactory.de/product_info.php/14TB-Toshiba-Enterprise-Capacity-MG07ACA14TE-256MB-3-5Zoll--8-9cm--SATA_1236484.html
  3. Bei mir wird das noch dauern - ich bin noch nicht mal dazu gekommen das NAS auszupacken, geschweige denn Unraid einzurichten und auf Energieverbrauch zu optimieren...
  4. Ein kleines aber nicht unbedeutendes Detail, in dem Fall würde ich das auch anders aufsetzen Danke für all den Input!
  5. Ja, so werde ich das dann wohl auch machen. Mich wunderte wie gesagt nur, dass das scheinbar kein üblicher Usecase ist - Arbeitsdokumente dauerhaft im schnellen Cache, gleichzeitig regelmäßig ins Array gesichert (kopiert). Dazu kommt, dass die verschiedenen Backupoperationen nachts auch möglichst effizient abgearbeitet werden sollten. Wenn das jetzt mehrere Prozesse übernehmen müssen (Mover, LuckyBackup, Appdata Backup, rsync etc.) die alle gleichzeitig z.B. um 2 Uhr starten, kommen die sich beim Schreiben ins Array ja auch wieder gegenseitig in die Quere. Normaler Hausgebrauch ist richtig, wobei darunter vermutlich auch jeder etwas anderes versteht, Aber auf die oben beschriebenen Datenvolumen werde ich nicht kommen. Insofern passt der Raid1 Ansatz für mich erst mal, auftrennen kann ich den Pool dann immer noch, sollte sich die Notwendigkeit ergeben. Auch wenn das nicht mal eben so gemacht ist, wenn ich das richtig verstanden habe... Ja, korrekt. In einer idealen Welt wären mehrere Raid1 Cache Pools sicher optimal, aber das scheitert schon an der Hardware/ Ports und auch an der Lizenz. Insofern habe ich nur die beiden Optionen 2 separate Cache Pools ungesichert oder 1 Cache Pool mit Raid1 gesichert. Allerdings geht es bei dieser Frage ja nicht nur um den verfügbaren Platz und die Datensicherheit (und die Kosten), sondern auch um die Langlebigkeit der Hardware, korrekt? Bei getrennten Cache Pools würde die Hardware eines Docker/ VM Cache Pools sicher länger leben, als ein Cache Pool der jeden Tag tonnenweise Daten schaufeln muss...
  6. Ok, ich denke eben auch, dass das bei meinem Einsatzszenario nicht wirklich spürbar ist und erst bei signifikant höherer Last oder höheren Anforderungen relevant wird. Dann werde ich auch erst mal mit einem Raid1 Cache Pool ins Rennen gehen und mich etwas mehr mit den verschiedenen Backupoptionen beschäftigen. Vielen Dank für die Unterstützung!
  7. Der Performancenachteil kommt nicht durch das Raid, sondern dadurch dass die Docker/ VMs sich die Schreib-/ Lesezugriffe mit den nebenbei laufenden Dateioperationen teilen (Fileserver, Downloads etc.). Daher wird auch hier im Forum in der Regel empfohlen, die Cache Pools für Docker/ VM und andere Dateioperationen zu trennen. Mich hat interesseiert wie stark dieser Performancenachteil zu spüren ist. Du hattest geschrieben: "Parallel möchte ich aber auch einige Daten bzw Shares permanent auf dem Cache-Pool liegen haben" - ich bin davon ausgegangen, dass es sich dabei nicht um Docker/ VM Daten handelt, sondern um klassische Fileserverdaten (Dokumente). Wenn dem so ist, sicherst du die auch mit LuckyBackup ins Array?
  8. Danke euch für den schnellen Input! Ja, das hatte ich auch so verstanden, ist in Fall des Docker/ VM Cache Pools ja auch so. Aber es geht mit Hausmitteln (Mover) eben nur Cache ODER Array, kein UND. Im UND Szenario muss ich selber dafür sorgen, dass die Daten auch ins Array kopiert werden (LuckyBackup o.ä.), korrekt? Das wunderte mich nur, da ich das für einen gängigen Anwendungsfall gehalten habe. Ok, perfekt - damit habe ich ja schon einen guten Anhaltspunkt, gerade mal ~100GB für all die Docker plus VM. Und trotzdem Platzangst Ehrlich gesagt wäre mir für einen gesunden Schlaf ein Raid1 auch lieber. Aber wie sieht es mit der Performance aus, bei dir laufen eine Menge Docker und es fließen viele Daten auf dem gleichen Cache Pool, kein signifikanter Nachteil? Und wie hast du das Thema Backup bei den permanent auf dem Cache Pool liegenden Shares gelöst? Ein LuckyBackup Docker?
  9. Hallo zusammen, könnt Ihr mir bitte nochmal helfen, ich glaube in meiner Systemauslegung hat sich noch mindestens ein Denkfehler versteckt. Ich hatte für mein neues System eigentlich 2 x 2TB SSDs als Cache Pools geplant. Einen File/ Write Cache, einen Docker/ VM Cache. Die Idee für den File/ Write Cache war, hier häufig benötigte Dateien *dauerhaft* für einen schnellen Zugriff vorzuhalten, die aber auch regelmäßig ins Array gesichert werden. Mittlerweile glaube ich aber verstanden zu haben, dass Unraid nur entweder Cache oder Array unterstützt (Mover). Müsste ich hier, analog zum Backup des Docker/ VM Cache Pools (appdata backup) selber ein geeignetes Backup aufsetzen? Oder ist die Vorgehensweise generell nicht sinnvoll? Wie habt ihr das gelöst, auch im Sinne von redundanten Backups? Und noch eine Frage zur Größe der SSDs, ich dachte an 2 x 2TB, weil ich das hier häufiger so gesehen haben und viel hilft viel... Mittlerweile beschleicht mich aber der Verdacht, dass das für meine Anforderungen kapital überdimensioniert ist. Insbesondere wenn ich den File/ Write Cache tatsächlich nur als temporären Zwischenspeicher nutzen kann/ sollte und der Mover einmal täglich läuft, wüsste ich nicht, wie ich die 2TB jemals ausnutzen sollte. Aber vielleicht habe ich hier auch noch einen Denkfehler? Und analog für den Docker/ VM Cache Pool. Bei mir werden maximal 2 VMs gleichzeitig laufen (1xLinux, 1x Windows) und dazu höchstens ein Dutzend Docker (das "übliche": Jellyfin, Nextcloud, Paperless, AdGuard, *arr...). Welchen Platz werde ich dafür etwa brauchen, gefühlt komme ich auch hier nicht mal in die Nähe von 2TB? Und eine letzte Frage, separate Cache Pools wie oben beschrieben vs. einen Raid1 Cache Pool. Es scheint, dass die meisten User Variante 1 bevorzugen - ist der Unterschied in der Performance tatsächlich so groß, dass er den Nachteil bzgl. der Datensicherheit aufwiegt? Auch wenn bei täglichem Run des Movers der potentielle Datenverlust relativ gering ist, fallen SSDs in der Regel aber doch spontan und vollständig aus. Ich wäre euch dankbar wenn ihr meine Gedanken etwas entknoten könntet...!
  10. Das hört sich schonmal gut an, hast Du die 8GB auch im System gelassen, also jetzt 40GB? Und hast Du auch schon M.2 SSDs verbaut, wenn ja welche?
  11. Ok, verstehe - ich werde es ausprobieren und berichten. Ok, danke für Deine Einschätzung, es sollen 2x2TB werden. Aber mir ist gerade auch aufgefallen, dass ich die 1TB Module verglichen habe... Bei den 2TB Modulen scheint die 970 nochmal eine leicht geringere Leistungsaufnahme zu haben. Dann nehme ich wohl eher die 970, es fühlt sich nur irgendwie komisch an, für das gleiche Geld "alte" Hardware zu kaufen
  12. Eigentlich "sollte" das grundsätzlich ja gehen, der Single Rank ist vielleicht etwas schneller, aber den Unterschied werde ich bei diesem System wohl nicht merken. Auch Aber Du klingst so, als würdest Du Probleme erwarten? Oder meinst Du, dass es beim Mischen von RAM Modulen per se immer zu Problemen kommen "kann"? Da bin ich ganz bei Dir, in dem Fall müssten die 8GB dann raus... Hast Du vielleicht noch einen Erfahrungswert für mich bzgl. der SSDs - 980 vs. 970?
  13. Nein, mein Sendungsstatus stand bisher auf "elektronisch angekündigt". Seit heute aber auf "Vorbereitung für Weitertransport" mit voraussichtlicher Zustellung am Freitag (14.06.2024). Es wird also Zeit die zusätzliche Hardware zu bestellen, dazu bin ich noch gar nicht gekommen... Bei DDR5 sollte doch eigentlich nichts mehr dagegen sprechen, die 8GB ab Werk mit 32GB im zweiten Slot zu erweitern? Verbaut ist dieser hier und ich würde mit diesem hier erweitern? Und bzgl. der SSDs werden es wohl zwei Samsung 980 werden. Das Board unterstützt zwar PCI 4x4, aber ich brauche die Leistung nicht und nehme da lieber den Vorteil beim Stromverbrauch. Oder würde ihr eher zu den 970 Evo raten?
  14. Ok, dank dir für die Bestätigung. Mich hat in erster Linie verunsichert, dass es bzgl. Unraid hier im Forum gar keine Erfahrungswerte gibt. Liegt aber wohl auch daran, dass der 8505 eine reine OEM CPU zu sein scheint? Das wird für meine Linux VM wohl gar nicht notwendig sein. Aber da wir gerade beim Thema sind... Wenn ich die iGPU an eine VM durchreiche, ist das dann exklusiv? Stehen dann z.B. Jellyfin keine Quick Sync Ressourcen mehr zur Verfügung? Solange ich den Platz nicht brauche, werde ich die verbaute SSD wahrscheinlich erstmal nur deaktivieren. Wobei, dazu habe ich gleich noch eine Frage - ich wollte den SSD Cache eigentlich mit Parity aufsetzen. Die meisten hier scheinen das nicht zu machen, sondern jeweils eine SSD als Cache und die andere SSD als Storage für Docker und VMs zu nutzen. Warum ist es besser so zu trennen, Performance? Ggf. könnte man dafür den dritten SSD Slot gut nutzen, auch wenn der nur über PCIe 3 angebunden ist? Bin mal gespannt, ob Ugreen dann auch pünktlich im Juni ausliefert.
  15. Hallo zusammen, ich bin jetzt schon länger auf der Suche nach einem NAS... Ursprünglich hatte ich ein rundum sorglos Paket von Synology im Auge, aber die Hardware des neuen 923+ war eine zu große Enttäuschung. Also habe ich weiter recherchiert und bin auf Unraid gestoßen. Liebe auf den ersten Blick. Also, so dachte ich, kurz mal ein paar Komponenten suchen, bestellen, zusammenbauen, fertig. Habe ich schließlich oft genug gemacht, auch wenn diese Zeiten schon etwas länger her sind. Leider bin ich dann im Bermuda Dreieck aus Unraid Forum, Geizhals und Google immer wieder untergegangen. Das Komponenten Puzzle schien nicht lösbar, immer wieder gab es Teile die nicht passten. Entweder waren sie nicht verfügbar oder von absurdem Preisanstieg befallen. Oder sie ließen den Stromverbrauch ansteigen, weil sie bestimmte C-States verhinderten. Oder der Formfaktor verhinderte eine halbwegs akzeptable Optik. Oder oder oder - perfekt ist der Feind von gut genug... Dann blieb das Thema eine Weile liegen, bis ich zufällig auf die Ugreen NAS Serie gestoßen bin. Eigentlich passt hier für meinen 08/15 Anwendungsfall alles zusammen: - Datenspeicher (4 HDD sind ausreichend) - Video Streaming/ Decoding via Jellyfin - VM (Linux oft, Windows selten, max 2 VM parallel) - Docker (~2 Handvoll) D.h. ein Ugreen DXP4800 Plus scheint alle Anforderungen sehr gut zu erfüllen. Auch Größe und Optik passen. Und ein Stromverbrauch von ~14 Watt inkl. HDDs im Idle sind auch ok. Dazu ist der Kickstarterpreis kaum zu schlagen, wobei das nicht entscheidend ist. Noch etwas RAM und 2 SSD spendieren, Unraid installieren und alles wird gut. Jetzt frage ich mich nur, ob ich nicht noch irgendeinen grundlegenden Haken übersehen habe? Abgesehen von der fehlenden Flexibilität hinsichtlich zusätzlicher Steckkarten oder Festplatten oder grundsätzlichen Risiken bei Kickstarter Projekten, seht ihr irgendwelche Showstopper bei der Hardware (lspci Output hier)? Insbesondere beim Prozessor, der mir bis dato auch hier im Forum noch nicht begegnet ist (12th Gen Intel Pentium 8505 Gold mit Intel UHD Graphics for 12th Gen Intel Processors)? Für die Docker und 1-2 VMs sollte er doch eigentlich ausreichend dimensioniert sein? Liegt ziemlich genau in der Mitte zwischen einem N100 und einem i3-12100, siehe auch hier. Vielen Dank schon mal für eure Einschätzung!
×
×
  • Create New...