madmin

Members
  • Posts

    57
  • Joined

  • Last visited

Everything posted by madmin

  1. @Joczek Not me. I have not tried to update the BIOS yet. I have very little time, my progress is really slow, and I have not yet gotten to the point of optimization. No, if you are not referring to optimization. I had to change one BIOS option for it to auto-boot without hitting enter on a keyboard. Other than that, it worked out of the box. But again, this is not advanced requirements level. I am still learning, it's been literally decades that I built mini tower PCs before, I always used notebooks ever since. From what I read at Amazon, the BIOS update archive is broken because of a wrong flash tool (which can be exchanged, appearently fpt.efi is wrong and fph.efi is right, but it is not clear where to get the fph.efi from the review). I will have to look at that myself, at some point. Sorry if that is not much help.
  2. Alles gut 🙂 Ich habe Unraid tatsächlich auch nicht gekauft, um der CLI vorgaukeln zu müssen, hier säße ein voller Linux-Admin. Aber an dieser Stelle muss die webGUI wohl noch etwas reifen (oder ich hätte halt das Skript von Spaceinvador One anwerden sollen...). Da ich gerade einsteige und 6.13 in den Startlöchern steht, wollte ich allerdings die Weichen richtig stellen, bevor ich dann wieder das ganze FS umstellen muss, und gleich ein stimmiges Konzept mit Snapshots usw. aufziehen. Aber stimmt, wer Teilimplementierungen nutzt, muss halt auch mit etwas ruckeligem Fahrwerk rechnen... 🤷‍♂️
  3. Solution: It works, even with chmod -R 775 - I realized that "users" is the GID and tried that. So Unraid does support user groups (sorry for the misinterpretation - The post I had that from was in 2018...). I do not know why shares are 777, and why newly created sub-datasets do not inherit the permissions of the share. But that seems to be how Unraid does things.
  4. @hawihoney Es tut mir leid, falls Du irgendwo rausgelesen hast, dass ich Dir ein single ZFS im Array aufschwatzen wollte, oder dass ich Dich nötigen wollte, über Unbekanntes zu spekulieren. Das war auch mehr an Leute gerichtet, die an ZFS Interesse haben, das schon für das Array probiert haben (Es gibt dazu Posts), über das recht offensichtliche Problem gestolpert sind, und vielleicht schon eine Lösung gefunden haben. Die lautet übrigens: Unraid macht Alles ein bisschen anders... Als ich den Besitzer nobody gesehen habe, wurde es mir dann klar: root@NAS:~# ls -la /mnt/user/media total 12 drwxrwxrwx 1 nobody users 4 Mar 5 14:32 ./ drwxrwxrwx 1 nobody users 9 Mar 3 12:09 ../ drwxr-xr-x 1 nobody users 2 Mar 5 14:31 audio/ drwxr-xr-x 1 nobody users 2 Mar 5 14:32 video/ root@NAS:~# chmod -R 775 /mnt/user/media/* Offenbar macht Unraid Shares mit 777 🤔 und regelt dann den Zugriff anders - Die sub-Datasets erben das aber nicht... Chmod 777 geht mir auch irgendwie gegen den Strich, also chmod 755. Dann läuft auch Alles wie erwartet 🙂
  5. @wohlben Glad it helped someone 👍 Just to be clear: "It's not worth it" referred to the modding effort - not to the case itself. You know, it really depends on your use case: If you want an straightforward, efiicient, low-noise design, with little cost and effort for modding, there are clearly better options out there. But if you look for a design for an inexpensive miniITX-combo that actually fits into a shelf*, while allowing for many HDDs, including hotswap for e.g. for offsite backup disks, then I would not know of any alternative (not talking about a better alternative, I did not find anything, but tbh, I am new to all this). The small depth of the two-level design being really key here, at the cost that it leaves not enough height for an ATX PSU. And PSX seems to be an area where most manufacturers do not exactly excel. But as @jit-010101 pointed out correctly, that can be solved with alternative power supplies, depending on your use case: The picoPSU would limit the drive options; however, there are reports of more than 4 disk builds powering up in parallel with a 160 W picoPSU, if that suffices - Going over peak for a short time works, appearently. Still: It's a 8 HDD +2 SSD bay case, and I did not want to have an external extra coltage converter / cable power supply. I have not looked if the HDPlex gan would fit, and only browsed the efficiency report superficially. But they look really promising, and with the new 500 W unit out, you should have enough power to support enough HDDs to populate the case. The hardest bullet to bite is the 100 or 92 cm double fan design - again, a tribute to the short depth, two-level design - I wondered if you can fit an external larger fan, but then I looked at the power cable and the network ports of the MoBo right in the middle of the back plane and realized there is no way around the design as it is. I bought two Arctic double bearing 92 mm fans with a daisy chain connector, and a fan controller for a few bucks that could control the fan speed via temperature - but it does not work well, the disk temperature sometimes exceeds 45 °C, and the fans do not react (the sensor is not attached to one drive, so it measures compartment instead of disk temperature). But it has a trim resistor for one fan connector, so I will try to find a sufficient smaller permanent speed for the disks inside. Maybe Jonsbo comes up with an even better short depth design where the MoBo is on the bottom or side, and there is only a partial second level for the HDDs (to allow a larger diameter fan in the back). But then they would have to figure out where to place the PSU... While I see many compromises in the design, Jonsbo has really drawn out a lot of a mini-cube/max-function concept. There is really not much freedom of design left, with such a compact 8 hotswap bay NAS case...
  6. @JorgeB I used the ZFS Master plugin: Main > ZFS Master > Create Dataset. e.g. "disk1/media/audio" (I left all defaults). Share security level "secure" was set in the share > SMB menu, with Read/Write user access to my main user. I had already deleted the datasets and created folders, but I reverted that for research here: root@NAS:~# ls -la /mnt/user/media total 12 drwxrwxrwx 1 nobody users 4 Mar 5 14:32 ./ drwxrwxrwx 1 nobody users 9 Mar 3 12:09 ../ drwxr-xr-x 1 nobody users 2 Mar 5 14:31 audio/ drwxr-xr-x 1 nobody users 2 Mar 5 14:32 video/ Looking at the owner "nobody" and the permission pattern, I start to wonder how one should specify write access other than chmod 777, actually - as Unraid does not seem to use permission groups to assign to users. The share has chmod 777, so it actually might be that the sub-datasets probably need that, too, then... So Unraid seems to manage permissions with a different mechanism, obviously...?
  7. Is it possible to write to nested / sub-datasets in a ZFS array disk via SMB? I chose ZFS for it (next to the parity drive), and I created a share / dataset "/media" and, below, sub-datasets "audio", "video", etc. (instead of folders). But while I can create files from Windows Explorer in the main share-dataset /media, I cannot in the sub-datasets (like in "/media/audio"). SMB security for all datasets is "secure", with additional write-permissions to the unraid-user (which is registered in windows and validated for the main share-datasets). But even if I change SMB security to "private" (with permissions for the Unraid user), it does not work... When researching before posting, I found a thread about the ZFS plugin in 2022 stating to chmod 777 the complete dataset - But I am not sure if removal of all access control is the intended design, or just a work-around at an early stage. I am aware that ZFS is waiting for a lot function to be implemented yet, so I wonder if I am doing it wrong, or if I have to wait for 6.13. The ZFS tutorials by Spaceinvader One to his scripts show that he actually created sub-datasets /appdata for each app - which makes sense to keep the snapshots scope small. A work-around would be to create parallel shares for each type of media (which seems not appropriate, though), or to use folders below the share-dataset and have the snapshots for the whole share for now. Another approach would be to simulate an array with a pendrive and make a full RAIDz pool, but I'd rather keep the flexibility of the Unraid array. I am aware the some advanced features will not work in a non-RAIDz Unraid array - So chosing ZFS for a one-disk plus parity array might seem odd. But I am really keen on the compression and snapshot features that XFS does not offer, and that should work even on a single ZFS disk (as I understand it). So even if ZFS is yet to be fully implemented, it seems to have benefits and no drawbacks I could see over XFS (for a single disk). But I might be on a completely wrong path here because I am pretty new to Unraid and ZFS.
  8. OK - Danke für die Einschätzung und den Link (Vieles dort kann ich noch nicht einordnen, aber das kommt wohl schon noch). Was ich verstehe: XFS reicht aus (logisch, hat es ja auch bisher), die zweite Hälfte von ZFS kommt mit Unraid 12.7 (wann auch immer, und was auch immer die enthält), und für "high-level features" braucht man mehr als eine ZFS Platte im RAIDZ-Verbund, also eher im Pool als im Array (Was auch immer high level ist, bei der Selbstheilung verstehe ich es zumindest). Was mir noch unklar ist: Hat ZFS für eine Einzelplatte ohne RAIDZ Nachteilem oder läuft da das UNRAID Array auch mit ZFS wie gedacht? Hat ZFS Vorteile über "reicht" hinaus? So wie ich Snapshots und Kompression verstehe, müssten die ja schon mit einer einzelnen Platte funktionieren, auch wenn die keine RAIDZ-Schwester hat. Sind nested Datasets high-level, kommen sie erst in 12.7, oder müssten sie funktionieren (wie bei Spaceinvader One , und ich mache etwas kritisches falsch)? Verbaue ich mir was, wenn ich - im Vorausgriff auf 12.7 - die Array-Platten als einzelne ZFS-HDDs betreibe (dann eben nur mit Datasets auf der Share-Ebene)?
  9. TL;DNR: Nach stundenlanger Doc- und Forensuche bin ich offenbar unfähig, nested ZFS-Datasets / Sub-Datasets unterhalb eines Shares in Windows zu beschreiben - und wäre Euch über Hinweise dankbar, wie es geht oder welche Infos ich übersehen habe. Langfassung: Ich habe mich nach Serverbau nun erst einmal für folgendes Setup entschieden: Array: 16 TB HDD = Partiy 16 TB HDD = ZFS (solo, also kein RAID-Z) Cache Pool: 1x 1 TB M.2 = ZFS (erst einmal auch solo ohne RAID-Z), als Primary für Shares mit den User- und Familien-Daten Wie ich die 2x 8 TB HDD nutze, entscheide ich noch. User Shares für die disk1 anlegen geht problemlos (Das ist dann ja auch automatisch gleich ein ZFS Dataset, was auch als solches angezeigt wird). Ich kann auch problemlos von meinem hinterlegten Unraid-User von Windows 11 aus auf die Netzwerk-Shares zugreifen und Dateien und Ordner direkt schreiben/löschen. Was allerdings nicht klappt, ist das Schreiben auf nested (also Sub-)Datasets: U.a. für Jellyfin habe ich ein share "media" auf disk1 angelegt (SMB-Typ "sicher", mit Schreibrechten für meinen Unraid-User). Anstatt von Unterordnern habe ich aber unterhalb dieses shares gleich Datasets angelegt (z.B. fotos, audio, video, ebooks, usw.). Da kann ich über Windows Netzlaufwerk aber nichts drauf kopieren... 🤔 ("keine Berechtigung"). Auch wenn ich auf SMB-Typ "privat" ändere: gleiches Ergebnis. Der User hat dabei jeweils explizit Schreibrechte auf das share. Username = Windowsuser, anderes Passwort, aber offenbar erfolgreich in Windows Anmeldeinformationen hinterlegt (sonst würde er ja auf das Haupt-Share nicht schreiben). Die einzige Lösung, die mir einfällt, ist, für jeden Zweck ein eigenes Share / Haupt-Dataset anzulegen. Das finde ich aber reichlich unübersichtlich und un-rekursiv. Aber das kann ja nicht "by design" so gedacht sein... Wenn ich die Tutorials von Spaceinvader One zu ZFS richtig verstehe, wandelt der ja mit seinem "auto-convert folders" script selbst unterhalb /appdata jeden App-Ordner (also nested Ordner) in Datasets um, damit Snapshots weitgehend unabhängig voneinander gemanaged werden. Snapshots sind neben der Kompression für mich der wesentliche Vorteile von ZFS (neben Selbstheilung, aber ich wollte mir noch nicht mit einem RAID-Z die Array-Flexibiltität einschränken). Diese quasi-Time-Machine-Funktion finde ich super gegen UTS-Fehler (überschreiben, engültig löschen) und Ransomware (Ich weiß, ersetzt kein Backup - ergänzt es aber). Deshalb möchte ich gern die großen Datasets gleich richtig anlegen (nicht für umganreiche Daten als Ordner).
  10. Puh, in der Tat... Zunächst hatte ich die Platten an FAN1 und FAN2 gesteckt und den ersten Dip hochgesetzt (Basis-Geschwindigkeit von 20 % auf 40 % hochgesetzt). Dip 2 und 3 hatte ich OFF gelassen, weil das schon das schnell hochlaufende Profil ist. Dip 4 und 5 (Warnung FAN läuft nicht) hatte ich auf ON gestellt. Beim Formatieren ging T dann hoch auf 47 °C, und da gab es Überhitzungswarnungen. Bei > 15 h (16 TB bei 250 MB/sec) war mir das nichts, also habe ich abgebrochen und die Lüfter zum Formatieren erst einmal wieder direkt rangeklemmt (100 % = ständiges Föhn-Rauschen, aber Plattentemperatur geht unter Dauerlast nur auf 40 °C, und wir haben noch nicht Sommer - Klimatisierte Räume haben wir nicht...). Aber ich habe ein Video gefunden, das diese PWM Fan Control Boards gut beschreibt: Fazit: Der Trick ist, dass nur FAN1 über die Temperaturreglung geht (Obwohl der Warner für FAN1 und FAN2 ist...). FAN2 und FAN3 haben je ein Trimm-Poti, dass die Geschwindigkeit fest einstellt. Für eine Temperaturregelung müssen also beide Lüfter an FAN1. Ich bräuchte also ein Y-Kabel, aber die Arctic CO (Hatte ich wegen der Doppel-Kugellager genommen) haben ja einen DaisyChain-Anschluss dran (d.h ein Lüfter kann direkt an den anderen rangekabelt werden). Und dann schaue ich mal, ob ich den Temp-Sensor halbwegs in die Region der Festplattentemperatur bekomme (Der berührt ja die HDDs nicht, sondern hängt etwas daneben, und misst also eher den Raum als die Platte). Dann kann ich hoffentlich bedarfsorientiert bei ~ 35 °C auf Ramp Up Speed und bei ~ 45 °C auf 100 % hochlaufen lassen. Im Notfall muss ich beide Lüfter dann an FAN2 und FAN3 über TrimPoti bei < 100 % einstellen und hoffen, dass ich einen Kompromiss an Lautstärke und Kühlleistung bekomme, der auch im Sommer taugt. Puh, das ist aber auch Alles kompliziert im Detail... 😁
  11. Sorry, ist ein JMB 585 Zusatzcontroller. Hm... Also dann doch eventuell die Synology als Backup weiterbetreiben. Ich denke drüber nach! Danke - Ich habe hier richtig viel gelernt!
  12. Man kann natürlich nichts vorhersehen, aber Überspannungsschutz ist im Schaltkasten (grob) und an der Dose (fein) vorhanden, und zumindest die Synology fühlt sich an einer Eaton USV per USB-Steuerung wohl. Das kann Unraid wohl laut Menü auch Und wenn wirklich die Bude raucht, dann ist wenigsens 98 % der persönlich-familiären Historie auf dem Monate alten Offsite Backup. Eventuell noch mehr aktuelles auf der externen Nextcloud. Mach ich - Danke! Das wäre auch noch eine Idee. Eigentlich wollte ich mich ja von der Synology unabhängig machen, und ein integriertes System. Aber die Überlegung einer separaten temporären laufenden Backup-Maschine ist natürlich nicht von der Hand zu weisen. Naja, das CWWK J6413 betreibt am 1. PCIe schon im Endeffekt einen internen JMB685 Port-Multiplikator. Insofern rechne ich da nicht mit besten C-States und Durchsätzen. Andererseits reden wir hier von einem niederschwelligen Familien-NAS ohne besondere Anforderungen wie Transcoding, der eine Datenplatte an einem nicht aufrüstbaren Marvell Armada 385 Dual-Core mit 512 MB RAM und USB-Nightly ablösen soll (Die Synologs 216j ist mir dann doch schon als Medienserver etwas lahm...). Maximalausbaustufe (neben M.2 Cache) wäre: 1x Data, 1x Parity, 1x Offsite Hotplug, eventuell 1...2 alte HDDs "weil's geht". OK, sehr verständlich zusammengefasst. Verstanden. HDDs nicht in einen Pool; aber Daten, die häufig geschrieben oder gelesen werden, dann darüber.
  13. OK, das ist schonmal eine super Zusammenfassung - Danke! Mit Bündeln meinst Du Drive-übergreifende Shares? Die brauche ich vermutlich nicht bei 18 TB Main drive bei meiner Nutzung. Also Alles XFS. Verstanden - Danke! Gemeint war, dass Unraid gegenüber RAID ja Vorteile hat. "RAID-Korsett": Ich hatte es so verstanden, dass im RAID alle Drives gleich groß sein müssen, und bei einer Vergrößerung dann eben auch Alles ausgetauscht werden muss, was teuer ist und Einiges an Datenlogistik abverlangt. Bei Unraid schaltet man beliebige (kleinere) Platten dazu, oder vergößert eine, und dazu halt die Parity - Das klingt halt freier. Nein. Gäbe es einen Cache-Pool, hätte ich es verstanden. Aber aufgrund der 30x30 Pool-Drives Werbung und Forenposts, in denen die Pools anders verwendet zu werden scheinen (Mag ich falsch verstanden haben), war ich verunsichert, wozu ich mehrere Pools haben kann oder möchte. Und deshalb hatte ich eine Grenze im Hirn, dass auch die Backup-Platten nicht im Array mitschwimmen, sondern einen eigenen Pool bekommen. Aber anscheinend gehören die ja doch in das Array. Irgendwie habe ich immer noch nicht ganz gerafft, wie ich Datenplatten handhabe, die für sich außerhalb des Verbunds stehen (z.B. eine Offsite-Sicherung, die ich gelegentlich per Hotplug einbinden will). Wahrscheinlich ist das für alte Hasen völlig logisch, für mich ist das eine neue Denkweise, unabhängige Platten in einem Verbund zu halten, und dann, ob Hotplug oder nicht, mit einer gemeinsamen Parity zu verrechnen. Das verstehe ich noch nicht so ganz. OK, Cache ist nicht nur für Tempo, sondern auch zum Schlafenlegen der energieintensiven HDDs. Verstanden, und auch, warum Cache-Platten auch eine sinnvolle größe haben sollten und offenbar gern mit einem Raid abgesichert werden. Auch neu für mich war, dass die Daten entweder im Cache, oder auf dem Array stehen, aber wie ein gemeinsames Laufwerk angesprochen werden (Also mir als User egal sein kann, wo sie momentan geparkt sind). Das erklärt, warum die nicht so schnell wie möglich weggeschrieben werden müssen, der Cache-Pool aber auch nicht riesig groß sein muss. Danke auch für die Hirn-Neuverkabelung. Sowas Alles lese ich halt nur begrenzt aus der Doku raus. Offen: Wieso drehen alle Platten, wenn ich Daten für alle Platten über den Cache leite? Werden die nicht nur dann hochgedreht, wenn auch Daten für die jeweilige Platte aus dem Cache geschrieben werden? OK, wäre dann also wie ein Array ohne Parity, oder eben ein zusätzliches Raid. Prioritätenfrage. Wobei eine zusätzliche 1 TB M.2 ja nicht die Welt kostet und sich bei Cache-Verweildauern in Tagen ja schon lohnen. OK. Freigeben möchte ich da eher nicht, also eine Push-Anwendung recherchieren und finden (FreeFileSync hatte ich früher schonmal benutzt). Den Nextcloud-Client wollte ich wie gesagt vermeiden, ich suche eher was wie Synology Drive (also Sicherung auf ein share, nicht in eine Nextcloud-MariaDB). So oder so: Danke für die Geduld. Wie gesagt, es liegt nicht am Unwillen zum Lesen der Doku, sondern an der Kombi aus deren Anschaulichkeit und meiner Vorstellungskraft.
  14. @DataCollector OK, schon einmal Danke für die ausführliche Antwort. Das hilft mir etwas, die Doku und die Foren-Beiträge besser zu verstehen. Ich habe die Doku tatsächlich gelesen, finde sie aber bei weitem nicht so selbsterklärend wie Ihr alte Hasen hier, und bringe auch Dinge mit manchen Foren-Beiträge nicht in Deckung (Daher die Fragen). Vielleicht mache ich es mir auch einfach nur zu kompliziert. Insbesondere verstehe ich den Mechanismus der Pools und die unterschiedlichen File Systems nicht im Detail. Da hat Dein Post schon einmal geholfen. Ich wollte hier auch nicht Alle mit einem Riesen-Post über Vorhaben und mein Arsenal konfrontieren, aber hier: Familien-NAS mit Alltags-Dokumenten und mit moderat Medien-Daten (Fotos/Familienvideos, digitalisierten CDs, wenig Movies - ohne UHD o.ä.). Im Alltag werden nur wenige Daten geschrieben, vieles ist eher archiviert, und das meiste steuerbar. Ich brauche daher keine Hoch-Verfügbarkeit (RAID, oder Unraid Parity), sondern vor Allem Datensicherheit (Backups). Backups dürfen auch Risiko- und zeitlich gestaffelt sein. Offsite-Backup reicht z.B. nur alle paar Monate als Baseline-Archiv. Aktuelles aber immer mindestens immer lokal auf dem Arbeitsrechner und auf dem NAS, sowie einem Nightly-Backup im Server. Wenn da mal was ausfällt, verliere ich also maximal Daten eines Tages. Das wäre bei Familienfotos blöd, aber im Regelfall nicht schlimm. Es wäre auch schön, wenn es etwas Schutz gegen überschreiben gäbe (z.B. 3 alte Dateiversionen wieder herstellbar - Eine alte Version ist ja dann immer im Nightly Backup, aber manchmal merkt man das Problem ja zu spät). Offene Ports möchte ich nicht, deshalb habe ich eine gehostete Nextcloud (1 TB) für unterwegs-Daten (Kalender, Adressbücher, etc.) und externes Share. Da könnte man das allerwichtigste Aktuelle (so 0,5 TB) auch hinsichern. Wenn ich also vom Arbeitsrechner Synce, soll das nicht an eine weitere Nextcloud gebunden sein, sondern auf einem normal lesbaren Share. Ich bin eventuell paranoid, was Ransomware auf einem Fast-Inselsystem angeht, aber idealerweise sollte die Backups außerhalb der Backup-Zeit mögilchst nicht eingehängt sein. Was ich habe: Unraid Basic, d.h. max. 6 Platten (inkl. Array, Pool und Hotplug-Offsite Backup HDD - zählt eine USB cradle auch rein?). Das Board kann ohne PCIe 6 SATA + 2 M.2. Aufpreis für nächste Stufe würde ich notfalls zahlen. Insgesamt ~3 TB Daten, Tendenz steigend. 2x Seagate Exos 18 (18 TB), neu (leider gleiche Quelle). Entweder als Array mit Parity (allerdings wüsste ich nicht, wofür), oder als Data + Backup. Soweit ich das jetzt verstehe, müsste aber auch eine Backup-Platte dann doch mit in das Array rein, nur dann eben nicht als Parity - Kann ich sie da für Backups ein- und wieder aushängen? 1x M.2 Samsung EVO 970 (1 TB) für Cache. Cache ist für mich schnellschreiben, dann moven. Doku spricht von Default tägliches moven nachts. Deine Antwort interpretiere ich so, dass dadurch die Platte energiesparend im spin-down bleiben soll. Das heißt aber, solange ich nicht > 1 TB am Tag schreibe, muss ich nicht für jedes Share einen eigenen Cache-Pool anlegen. Wofür brauche ich denn dann "bis zu 30 pools á 30 Platten" (Doku)? ca. 5 Jahre alt, optional / zusätzlich: 2x WD Red (8 TB) - bisher eine als Datengrab in der Synology, eine per USB-Cradle als Nightly Backup. Die könnte man nutzen: entweder als Backup mit Parity nutzen (wenn ich die Doku richtig verstehe, muss das dann aber in das Array, da kein Cache-Pool) oder als Erweiterung für weniger wichtige Daten oder eine davon als Offsite-Kopie, um die 4 TB zu ersetzen. 1x WD Green (4 TB) - bisher als Offsite-Backup, für die ich die USB-Cradle dann manuell umbestücke. Wo ich auch noch hänge: Preclear wird empfohlen, braucht aber ein Plugin, das erst nach Start des Arrays installiert werden kann, welches dann also doch nicht Pre-Cleared werden kann? Oder ist das am Ende gar nicht so wichtig?
  15. Nachdem mein CWWK J6413 im Jonsbo N3 build nun erstmal läuft, bräuchte ich etwas Orientierung zur Aufstellung der Festplatten. Es geht um die Wahl einer sinnvoller Verteilung der Platten zwischen Array und Pools und dem passenden File System. Ich habe schon Einiges gelesen, habe aber das Gefühl, das ist ein Kaninchenbau, aus dem ich in Wochen noch nicht wieder rausgefundenb habe... Fragen: 1) File System: Ich sehe hier gelegentlich erwähnt, dass XFS oder v.A. Btrfs systematisch Datenverluste haben (können). ZFS klang schon vor Unraid super, gerade das BitRot-Protect, und nun ist es ja auch hier verfügbar. Aber soweit ich verstehe, wäre ein Array mit Parity dann ja dann nur mit RAID umsetzbar - und ich wollte nicht auf das RAID-Korsett gleich großer Platten angeweisen sein (Umständlich bei Upgrades, und ich habe auch etliche Platten unterschiedlicher Größe übrig - wenn auch einige davon schon 5 Jahre alt sind, aber man kann ja steuern, das kritische Daten eher auf den neuen Platten landen sollen). 2) Generell brauche ich aber auch nicht zwingend eine Parity für Verfügbarkeit - Dann bringt ZFS ja auch nicht so viele Vorteile? Oder bringt das auch bei einem Array ohne RAID / Parity mehr Zuverlässigkeit? Muss denn dann überhaupt ein Array existieren - oder kann ich auch nur mit Pools arbeiten? Vieles scheint ja in der GUI erst verfügbar, wenn ein Array gestartet ist. 3) Ich verstehe den Cache Pool so, dass man den als Primary beschreibt, und das dann auf ein Secondary wegschreiben lässt. Was wird denn im Cache wie lange zwischengespeichert? Nur die Files mit Änderungen für ein paar Sekunden/Minuten? Dann könnte ich da ja Alles drüber laufen lassen (Array, Backup-Pools, etc.). Oder ist der Cache dann quasi die einzige aktuelle Vollkopie des aktuellen Stands, der dann nur einmal am Tag weggeschrieben wird? Dann kann ich ja nur Verzeichnisse von insgesamt max. Cache-Größe darüber laufen lassen. Soweit ich verstehe, ist Parity spätestens im Cache-Pool auch eher Luxus? 4) Welche Lösung ist empfehlenswert (Unraid-Einsteiger mit begrenzten Linux-Kenntnissen) für a) Sync der Arbeitsdaten vom Arbeitsrechner quasi in Echtzeit auf ein unkodiert lesbares Share (also nicht in die DB einer Nextcloud)? Oder macht man das am besten per SMB und Windows-Boardmitteln ("verfügbar machen" o.ä.)? b) HDD zu HDD Daily Backup (rollierend inkrementell, oder noch besser ähnlich einer Time Machine mit den z.B. drei letzten Dateiversionen). c) HDD zu Hotplug-HDD manuelles Offsite-Backup der selektiv wichtigsten Daten (rollierend inkrementell, oder bei den älteren Platten auch als voll-Backup alle paar Monate) d) HDD zu externer Nextcloud (Ich habe eine 1 TB Hosted Nextcloud, mit der ich die nötigsten Daten täglich syncen könnte). Ich habe öfter Lucky Backup als handhabungsfreundlich erwähnt gesehen.
  16. Puh - 70+ € zusätzlich zu den Lüftern für eine Windows-konfigurierte Kurve ist mir eine Nummer zu happig. Aber trotzdem Danke für den Tipp!
  17. @DataCollector Super, danke! Jetzt habe ich auch wieder gefunden, wo ich schonmal was dazu gelesen hatte: Das CWWK J6413 macht kein PWM mit, man kann nur über den CPU-Fan mit Y-Kabel gehen: https://forums.servethehome.com/index.php?threads/tips-and-tricks-for-a-cwwk-j6413-motherboard.40463/ Das scheint mir aber zu sehr gebastelt. Das Jonsbo N3 hat an der Back Plane 2x 4pin-header für 12 V, aber die machen wohl trotzdem kein PWM: https://www.reddit.com/r/sffpc/comments/17724zo/psa_the_jonsbo_n3_case_can_accept_92mm_fans/ Somit sind PWM fans also nicht zwingend (allerdings kosten die ja auch kaum mehr). Die von Dir verlinkten Temperatur-Drehzahl-Regeler mit Alarmfunktionen steuern offenbar per PWM, wenn ich das richtig sehe - Somit dürfte dann die Kombi eines solchen Reglers mit zwei PWM-fans am einfachsten passen - Super, danke! Bleibt für mich also nur noch die Frage, ob jemand Erfahrung mit den deutlich günstigeren Xilence, Arctic o.ä. Gehäuselüftern hat (ersatzweise dann eben mit 80/120 mm) und beurteilen kann, ob die in kritischen Daten auch real schlechter sind, so dass man lieber doch lieber gleich das Doppelte für Noctua ausgeben sollte. Bei ca. 1000 € Gesamtinvest für das bestückte Gehäuse macht das zwar am Ende nicht so viel aus, aber in Zeiten knapper Kassen möchte eine Gehäusebelüftung für 20 € Aufpreis nicht nur ein gutes Gefühl, sondern schon auch technisch einen realen Mehrwert (z.B. Lebensdauer, dB) bieten. Aber ja, mir ist schon auch klar, dass eine Minitaturlösung für das Wandregal ein Kompromiss ist, der sich irgendwie auch finanziell äußert 😁 Insgesamt ist das ja schon eine recht bezahlbare und dennoch ausbaubare Lösung (wenn man mal die Arbeitsstunden für den Gehäuse-Umbau auf der Kostenstelle "Weil ich es ausprobieren wollte" verbucht).
  18. Die 2x 100 mm Lüfter in der HDD-Etage des Jonsbo N3 sind mir doch etwas laut. Dazu: Frage 1 - Ansteuerung: Wie steuere ich die an, wenn ich die nicht permament auf 100 % laufen lassen will? Die Backplane hat zwar 2x Anschlüsse, aber 3 pin, und das scheint nichts zu drosseln. Ich brauche dann wohl einen 4Pin Lüfter, und muss einen 4pin Anschluss auf dem MoBo finden, oder? Kann das MoBo dann die Drehzahl basierend auf den HDD-Temperaturen steuern? Angezeigt wird sie ja, also scheint sie ausgelesen zu werden. Nur ob sie bei Temperaturkurven verfügbar sind, oder ob da die Prozessortemperatur als Basis genommen wird, weiß ich nicht (Das wäre bei einem Zwei-Geschosser-Gehäuse dann ja eh sinnfrei). Ich könnte eine Temperaturlogik mit Sensor einbauen, die die Geräte PWM drosselt. Nach der Bastelei bisher habe ich da wenig Lust drauf. Ich könnte die Lüfter pauschal mit einem Poti o.ä. runterregeln. Aber falls die Festplatten mehr Kühlung brauchen, gibt es dann keine Reserve - Für irgendwas ist 100 % ja eigentlich gedacht... Frage 2 - Modell: Zu welchem würdet Ihr raten? Full depth 25 mm passt. Ich nehme an, ich brauche ein 12 V Modell? Für eine 4pin PWM-Lösung kämen z.B. in Frage: Noctua NF-A9 PWM - 20 €/Stück, ~22 dB: Hochgelobt, aber 2x 20 € tun weh, um ein halbes Gehäuse zu be-winden - Das ist dann schon fast der halbe Preis eines Gehäuses (inkl. Lüfter)... Wenn es sich denn erfahrungsgemäß auf lange Sicht lohnt, würde ich das aber machen. Beim Betrieb an einer MoBo-Buchse bräuchte man dann wohl noch ein Y-Kabel. Xilence XPF92.R.PWM 92mm, knapp 8 €/Stück, 22 dB: Klingt gut und günstig, hat sehr gute Bewertungen, aber weniger viele. Ebenfalls Y-Kabel für 2 Stück am MoBo erforderlich. EDIT: Die werben auch mit Flüssigkeitslagerung (hydrodynamische Lager, nehme ich an). ARCTIC F9 PWM PST (8,5V): ARCTIC F9 PWM CO (12V), ca. 11,50 €/Stück, "0,4 son": Top Bewertungen, wirbt wie Noctua mit Speziallagern, und ich würde gleich die PST-Variante nehmen (die haben den Verteiler gleich drin, so dass man sie von einem Anschluss aus Daisy-Chain-Verketten kann). 0,4 son wäre laut Umrechungstabelle aber schon jenseits der 30 dB, also doppelt so laut wie die anderen beiden. Keine Ahnung, was das in der Praxis und bei PWM ausmacht. Habt Ihr andere Vorschläge mit gutem Preis-Leistungs-Verhältnis?
  19. Update im englischen Thread: ich habe das Gehäuse für den horizontalen Einbau des ATX-Netzteils umgebaut.
  20. OK, it obviously took me a few days to proceed with my build. It is time for an Update: tl;dnr: Do not do it, it is not worth the effort, unless you want to substantially invest effort and time - You know the Levi's commercial with the boy hammering the square peg into the round hole? Right - Just like that, only steel instead of wood... Maybe it would be easier with a 3D-printed bracket with metal inserts (I would not trust time-yielding plastic to hold up the torque of the horizontally mounted PSU...). But even then, it is a mechanically tight fight (not yet regarding the airflow...). Multiple times, I though about selling the Corsair and buying an SFX PSU instead, but I had already invested too much time to not see the result. No experiences with operation yet (temperatures, etc.). This turned out a frankenstein-ed brick-like NAS with too many organs inside... 😂 Long story: The existing top beam and the vertical PSU assembly bracket were made from a 1 mm metal sheet that I trusted absolutely zero to carry an ATX PSU horizontally. So I removed it and designed a really solid bracket from 20 mm square piping (1.5 mm strength) that I cut badly at home, filed the saw buildup down forever, and had it welded that should be sufficent: There is little space in the case between the LED PCB on the front side and the motherboard, and the supporting feet of the bracket were unfortuntaly welded 5 mm too wide apart. So I had to cut the lower pipe bits into two C-Shaped feet, and file slots in there for the bottom screws (not yet in the photo). You need the open feet to get it under the bottom screw head, too. After the fact, I would redesign the bracket because the access and screw holes ended up in pipe walls, a horizontal one (top right), and a vertical one (low left) - which cost me ~ one hours of milling with a hand machine drill, and two broken drill bits and one broken wood milling bit to clear for the screw head (You can tell from how they look and where they found their final position, too). All not really professional work, but I finally made it work and painted it black with metal protection finish. The countersunk screws holding the original beam were fine-pitch threaded, but my threading tools were metric standard, so I had to order new screws (in the foto, there is temporary screws that will not allow the cover to go over). I also had to cut a piece out, for the cable to go to the PSU (I put some felt pad protector in there to protect the cable - We would not want the case to be "powered"). I designed the bracket to leave most of the ventilation opening uncovered (just really few mm at the side, top and bottom are covered, I do not think it's a big deal). I also took out all the mesh from the front and cover sides ot allow better airflow. I could remove the small hole sheet from the front, too, if it was a problem, but the remaining openings would be really large. I managed to fixate it on the bottom with only one bottom screw (No way to turn it), but the bracket is basically supported on the feet itseld, so the screw only kind of fixes its position. If I ever wanted to mount süß outside the drive bay in "first floor", it would have to be on the other side (before the mod, you could mount one on each side). The PSU hovers like 2 cm above the mainboard - luckily only on ca. the back 1/3 of it. Half of the CPU fan is underneath it. It is - intentionally - the PSU side with the sucking fan, though, so I hope it will not cause overheating, but practice will have to tell. If it goes wrong, there is two fan mounts on the back that could be equipped (probably in a pushing configuration). Also below it, are the power connector (so its cables are bent with a bit of tension), the SATA connectors (OK-ish, they are thinner / less stiff). In the photo above, the CPU plug is still missing, I had to find out that I need to seperate the 8 pin plug for that into two 4 pin ones. In the "ground floor", I plugged in two Seagate Exos X18 (18 TB). I do not really "need" parity, but the space of one is more than I need, so I am not sure yet how I will configure them (one productive, one daily backup / time machine, maybe). Once I retire my Synology, there will be one WD Red (8 TB) and a WD green backup drive (4 TB) to follow, but those are like 5 or 6 years old already. After plugging in the CPU power, Unraid booted fine. The HDDs had ca. 30...32 °C, the M2 40°C, but I had them not actually in use. But the two HDD fans plugged into the Hotplug plane are actually running at 100 % all the time, and sound like quite a hairdrier - They will have to go, I cannot imaging having those running permanently in a house without basement, even in a side room. I might switch them out for two Noctua 92x25 PWMs, but because it is two of them, it would be 40 bucks. I will do it if they are that much better than the 5 bucks ones (e.g. Xilence) - Maybe someone here has some experiences to compare. I have seen a mod where someone plugged them into the MoBo fan socket, with a Y-cable following a small inline logic chip for speed control. Not sure if the MoBo can control them when they are not in the same compartment as the MoBo itself (The MoBo seems to measure the HDDs' temperature though). Again - If someone has some advice, I'd be happy. So: It is doable. But really consider if it is worth it.
  21. Thanks for all the Input! Just a short update: I ordered and received the N3 and all components, but ran into a show-stopper problem that I had not anticipated: The Jonsbo N3 only fits in a PSX PSU up to 105 mm depth. I had already ordered the Corsair RM 450 550x gold as my preferred PSU - which is an ATX PSU that is deeper (which I could have solved) - but it is also taller than a PSX and will not fit the N3 without case modification. I opted to engage that project, which involved substituting a thin sheet metal strut of the case with a welded pipe frame, to support the heavy ATX PSU in an unusual free-hanging horizontal orientation - based on a suggestion by @mgutt who suggested to make this in 3D printed plastic. But I have no 3D printer, and I do not trust plastics for this, so I went heavy metal for this. It turned out to be a major project that I have had near to no time for, in the past weeks. However, I do have the pipe frame now, but it still requires some drilling, thread-cutting, painting, and a small bracket from the other side's strut to support support the free-hanging end. I will update my build thread with the progress and images, when I have time.
  22. Ah, jetzt, ja... Die Idee ist super, das wäre die Lösung! Da muss ich dann nicht was ganz Neues finden... Und ich hielt mich schon für recht passabel in Tetris, aber NAS-Bau scheint da nochmal besser zu schulen Da wäre ich nicht drauf gekommen, weil die mechanische Biegebelastung bei dieser Anordnung ziemlich ungünstig ist (Berufskrankheit). Aber da niemand auf der PSU Trampolin-springt, könnte das für das Eigengewicht ausreichen... (Die PSU ist zwar nicht gerade leicht, aber dürfte gehen). CPU-Kühler dürfte kein Problem sein, der baut bei dem Board nicht hoch. Vielleicht braucht man dann zusätzliche Lüfter auf der Etage, um die Luft zwischen PSU und CPU wegzuwedeln, aber auch das wäre lösbar. Man verliert wahrscheinlich einen der beiden 2,5" mounting points ab der Seite - Bei 8 Bay und 6 MoBo-Ports kein Problem Ein 3D-Drucker ist nicht unmittelbar vorhanden, aber bei der Biegebelastung auf die dann recht kleine Abstützhöhe wäre mir Metall eh lieber - Ich kriege da bestimmt was hingebastelt. Super, Danke!
  23. Dieser jemand bin auch ich - Ich habe das konkretisierte Projekt auf Englisch reingestellt und von hier verlinkt. Sorry für die Dopplung. Der CPU-Kühler ist tatsächlich nicht das Problem: Das PSU ist länger als Platz ist bis zum Mini-PCB für USB, USB-C, und Audio. Gut, das PCB ist nicht zwingend nötig und kann ausgebaut werden. Aber auch dann ist das PSU dicker als der Platz zwischen Gehäuse-Hinterwand und MoBo-Außenkante. Und sie ist breiter als Platz zwischen Zwischendecke und Gehäuseoberteil ist: Im Englischen Thread habe ich die Maße der Form Faktoren aus Wikipedia mit den Maßen dieser PSU verglichen, und das passt definitiv nicht zusammen. Die Corsair wirkt auch nicht wie ein Small Form Factor, sondern ziemlich massiv...
  24. Ok, maybe I got it wrong as a rookie, but this is what I researched: The Corsair RM550x is advertized as ATX and measures 150 mm (W) x 86 mm (H) x 160 mm (L), which, according to https://en.wikipedia.org/wiki/Power_supply_unit_(computer)#Appearance seems to be more of an ATX large (up to 180 mm length, opposed to ATX spec 140 mm). I measured a clearance for the PSU of ~140 mm x ~70 mm x 105 mm in the case - which leaves room for a SFX form factor PSU spec'ed as 125 mm x 63,5 mm x 100 mm. Even if I remove the mini-PCB which carries the Front USB, USB-C, and Audio sockets and limits length, that would only extend the length clearence, but not the rest. The Corsair SF600 is advertized as SFX and measures 100 mm x 63 mm x 125 mm - So that would fit the bill, but at much larger ~170 € cost, and it's on backorder for basically the rest of the year (Dec 24...26)... So that is no solution at hand, either. Are there any experiences with be Quiet or Sharkoon (or other) 500 W Gold rated SFX units, especially with efficiency in the most relevant idle @ 30 W range? Or would a picoPSU be the best way to go? I mainly bought the N3 for improved airflow around the hotswap backplate, not for actually equipping it with 8+2 drives. It just feels odd to limit options at this point, but I probably will not really need them...
  25. Zu den SoC: Grünes vs. schwarzes Board sagt mir nichts. Soweit ich verglichen habe, haben die N-Boards etwas weniger Takt, nur den halben max. RAM (2x 16 GB), dafür mehr LAN-Ports und bessere iGPUs. Die werden auch gern im Router-Gehäuse verkauft. Damit war mein Fokus für NAS eher bei der eine Architektur-Generation moderneren J-Serie (ob das nennenswert am Verbrauch schraubt, weiß ich nicht). In Benchmarks liegt meiner Erinnerung nach selbst der N6005 Pentium Silver etwas hinter dem J6413 Celeron, ich bin aber kein CPU-Kenner. Bei Grafik liegen die N Prozessoren klar vorn. Den J6412 gibt es auch noch als Option für 160 €, aber bei der geringen Differenz über die Laufzeit... Auch die 20 € zum N5105 waren für mich nicht entscheidend. Ich glaube, der JB685 SATA Multiplier ist auch eine Generation jünger als der JB675 auf den N-Boards...? Wie relevant das Alles in der Praxis in welcher Situation ist - keine Erfahrung... Für mich klar pro J-Serie bei NAS-Anwendungen sprach der 2. M.2/PCIe-Port für Cache-Raid-Option oder SATA-Multiplier, und vor allem die 32 GB Spec pro DDR4 Slot. Irgendjemand meinte, die N-Serie sei auch schon erfolgreich mit 2x 32 GB bestückt worden, aber darauf wollte ich mich nicht verlassen. Das Netzteil schaue ich mir mal an, Danke. Vielleicht geht es aber wirklich durch Ausbau des Front-Peripherie-PCB, das wäre mir das liebste. Vom Jonsbo N3 wusste selbst der deutsche Vertrags-Händler von Jonsbo (CaseKing) noch nichts - Also hab ich entgegen meiner Überzeugung bei AliExpress bestellt, mit Rabatt-Code War das inkl. Lieferung auf Niveau des N2. Lieferung erfolgte deutlich schneller als angegeben. Soweit ich sehe, passt das RM550x auch nicht ohne weiteres in das N2 (Freiraum-Spec 150 bei PSU-Länge 160), aber das können N2-Besitzer vielleicht besser sagen. Ich sehe durchaus Probleme beim N3 (neben PSU-Freiraum die merkwürdige interne Kaltgerärekabel-Verlängerung, durch die man nicht an den Netzschalter kommt, und das 10" Doppel-Lüfter-Format, für das ich bei Noctua noch kein potenzielles Upgrade finden konnte - Beim N2 kann man wenigstens einen Full-Depth 12" ranbasteln). Das ohne Mod kompatibelste Case scheint mir (nur nach Recherche, keine eigene Erfahrung) das Node 304 zu sein. Das scheint aber wieder andere Issues zu haben (Kabelführung vs. Airflow, nur Schlitz als Zuluft, die HDD-Brackets schrecken mich ab, generell Zugänglichkeit, ...). MiniITX ist halt anscheinend immer ein Kompromiss...