ZFS "nested" Dataset nicht über SMB beschreibbar?


Go to solution Solved by madmin,

Recommended Posts

TL;DNR: Nach stundenlanger Doc- und Forensuche bin ich offenbar unfähig, nested ZFS-Datasets / Sub-Datasets unterhalb eines Shares in Windows zu beschreiben - und wäre Euch über Hinweise dankbar, wie es geht oder welche Infos ich übersehen habe.

 

Langfassung:

Ich habe mich nach Serverbau nun erst einmal für folgendes Setup entschieden:

  •  Array:
    • 16 TB HDD = Partiy
    • 16 TB HDD =  ZFS (solo, also kein RAID-Z)
  • Cache Pool:
    • 1x 1 TB M.2 = ZFS (erst einmal auch solo ohne RAID-Z), als Primary für Shares mit den User- und Familien-Daten
  • Wie ich die 2x 8 TB HDD nutze, entscheide ich noch.

 

User Shares für die disk1 anlegen geht problemlos (Das ist dann ja auch automatisch gleich ein ZFS Dataset, was auch als solches angezeigt wird). Ich kann auch problemlos von meinem hinterlegten Unraid-User von Windows 11 aus auf die Netzwerk-Shares zugreifen und Dateien und Ordner direkt schreiben/löschen.

 

Was allerdings nicht klappt, ist das Schreiben auf nested (also Sub-)Datasets: U.a. für Jellyfin habe ich ein share "media" auf disk1 angelegt (SMB-Typ "sicher", mit Schreibrechten für meinen Unraid-User). Anstatt von Unterordnern habe ich aber unterhalb dieses shares gleich Datasets angelegt (z.B. fotos, audio, video, ebooks, usw.). Da kann ich über Windows Netzlaufwerk aber nichts drauf kopieren... 🤔 ("keine Berechtigung"). Auch wenn ich auf SMB-Typ "privat" ändere: gleiches Ergebnis. Der User hat dabei jeweils explizit Schreibrechte auf das share. Username = Windowsuser, anderes Passwort, aber offenbar erfolgreich in Windows Anmeldeinformationen hinterlegt (sonst würde er ja auf das Haupt-Share nicht schreiben).

 

Die einzige Lösung, die mir einfällt, ist, für jeden Zweck ein eigenes Share / Haupt-Dataset anzulegen. Das finde ich aber reichlich unübersichtlich und un-rekursiv. Aber das kann ja nicht "by design" so gedacht sein... Wenn ich die Tutorials von Spaceinvader One zu ZFS richtig verstehe, wandelt der ja mit seinem "auto-convert folders" script selbst unterhalb /appdata jeden App-Ordner (also nested Ordner) in Datasets um, damit Snapshots weitgehend unabhängig voneinander gemanaged werden. Snapshots sind neben der Kompression für mich der wesentliche Vorteile von ZFS (neben Selbstheilung, aber ich wollte mir noch nicht mit einem RAID-Z die Array-Flexibiltität einschränken). Diese quasi-Time-Machine-Funktion finde ich super gegen UTS-Fehler (überschreiben, engültig löschen) und Ransomware (Ich weiß, ersetzt kein Backup ;) - ergänzt es aber). Deshalb möchte ich gern die großen Datasets gleich richtig anlegen (nicht für umganreiche Daten als Ordner).

Edited by madmin
Link to comment
1 hour ago, madmin said:

TL;DNR: Nach stundenlanger Doc- und Forensuche bin ich offenbar unfähig, nested ZFS-Datasets / Sub-Datasets unterhalb eines Shares in Windows zu beschreiben - und wäre Euch über Hinweise dankbar, wie es geht oder welche Infos ich übersehen habe.

 

Wir reden über eine single ZFS Platte innerhalb eines Unraid Array. Da geht das meines Erachtens (noch) nicht denn darüber steht das Unraid Software RAID. Für high-level ZFS-Features musst Du (noch) einen ZFS Pool anlegen.

 

Derzeit ist jede Platte in einem Unraid Array einfach nur ein stinknormales Device mit eigenem Dateisystem. Shares etc. unterliegen den Features des Unraid Array. Meiner persönlichen Meinung nach ist es derzeit Blödsinn ein Array Device mit BTRFS oder ZFS formatieren zu lassen. Diese beiden spielen ihre Stärken nur in ihren eigenen Pools mit ihren eigenen Verwaltungsebenen aus.

 

Für ein Array Device reicht das absolut ausgereifte und stabile XFS 100% aus.

 

https://docs.unraid.net/unraid-os/release-notes/6.12.0/#zfs-pools

 

Quote

We are splitting full ZFS implementation across two Unraid OS releases.

 

Edited by hawihoney
  • Like 2
Link to comment
Posted (edited)

OK - Danke für die Einschätzung und den Link (Vieles dort kann ich noch nicht einordnen, aber das kommt wohl schon noch). Was ich verstehe:

  • XFS reicht aus (logisch, hat es ja auch bisher),
  • die zweite Hälfte von ZFS kommt mit Unraid 12.7 (wann auch immer, und was auch immer die enthält),
  • und für "high-level features" braucht man mehr als eine ZFS Platte im RAIDZ-Verbund, also eher im Pool als im Array (Was auch immer high level ist, bei der Selbstheilung verstehe ich es zumindest).

Was mir noch unklar ist:

  • Hat ZFS für eine Einzelplatte ohne RAIDZ Nachteilem oder läuft da das UNRAID Array auch mit ZFS wie gedacht?
  • Hat ZFS Vorteile über "reicht" hinaus? So wie ich Snapshots und Kompression verstehe, müssten die ja schon mit einer einzelnen Platte funktionieren, auch wenn die keine RAIDZ-Schwester hat.
  • Sind nested Datasets high-level, kommen sie erst in 12.7, oder müssten sie funktionieren (wie bei Spaceinvader One , und ich mache etwas kritisches falsch)?
  • Verbaue ich mir was, wenn ich - im Vorausgriff auf 12.7 - die Array-Platten als einzelne ZFS-HDDs betreibe (dann eben nur mit Datasets auf der Share-Ebene)?
Edited by madmin
Link to comment

Viele Deiner Fragen kann hier niemand beantworten. 6.13 ist lt. Blog wohl intern im Alpha aber den genauen Umfang kenne ich zumindest nicht.

 

Ich persönlich benötige kein single ZFS im Array. Nach über 15 Jahren mit ReiserFS und später XFS im Unraid Array, derzeit aktiven 72 Platten in drei Unraid Servern, sehr vielen getauschten Platten, kann ich eines sagen: Hier ist noch kein einziges Bit umgefallen - die Selbstheilungskräfte spare ich mir. Und Snapshots, na ja, warum diese Daten im Array? Dann gleich einen ZFS Pool.

 

Ich melde mich zu dem Thema ab. Ist müßig über Unbekanntes zu spekulieren ...

 

  • Like 1
Link to comment
  • Solution

@hawihoney

Es tut mir leid, falls Du irgendwo rausgelesen hast, dass ich Dir ein single ZFS im Array aufschwatzen wollte, oder dass ich Dich nötigen wollte, über Unbekanntes zu spekulieren. Das war auch mehr an Leute gerichtet, die an ZFS Interesse haben, das schon für das Array probiert haben (Es gibt dazu Posts), über das recht offensichtliche Problem gestolpert sind, und vielleicht schon eine Lösung gefunden haben.

 

Die lautet übrigens: Unraid macht Alles ein bisschen anders... Als ich den Besitzer nobody gesehen habe, wurde es mir dann klar:

root@NAS:~# ls -la /mnt/user/media
total 12
drwxrwxrwx 1 nobody users 4 Mar  5 14:32 ./
drwxrwxrwx 1 nobody users 9 Mar  3 12:09 ../
drwxr-xr-x 1 nobody users 2 Mar  5 14:31 audio/
drwxr-xr-x 1 nobody users 2 Mar  5 14:32 video/

root@NAS:~# chmod -R 775 /mnt/user/media/*

Offenbar macht Unraid Shares mit 777 🤔 und regelt dann den Zugriff anders - Die sub-Datasets erben das aber nicht... Chmod 777 geht mir auch irgendwie gegen den Strich, also chmod 755. Dann läuft auch Alles wie erwartet 🙂

Link to comment
4 minutes ago, madmin said:

Es tut mir leid, falls Du irgendwo rausgelesen hast, dass ich Dir ein single ZFS im Array aufschwatzen wollte

 

OMG, nein. Da habe ich mich wohl etwas zu hart ausgedrückt. Kein Thema.

 

Es ist nun mal so, dass ich mich grundsätzlich nicht mit ungelegten Eiern beschäftige. Das ist vergeudete Lebenszeit. Siehe die Diskussionen rund um die neuen Lizenzen. Man was wurde das hochgeschaukelt - völlig umsonst.

 

Zu nobody:users und 777/666:

 

Das ist das Problem fast aller User die zuvor mit Linux-Distributionen gearbeitet haben. Unraid ist halt keine voll aufgeblasene Linux-Distribution sondern ein "NAS mit Benefit". Sobald ich hier jemanden auf der Konsole rumfummeln sehe, dann melde ich mich meist ab (ich meine das grundsätzlich und nicht persönlich). Fast alles - ich sage fast - geht über die GUI. Oftmals würde es einigen Usern reichen einfach mal dieses Kapitel zu lesen und zu verstehen. Damit ist fast alles gesagt:

 

https://docs.unraid.net/unraid-os/manual/what-is-unraid/

 

Zu ZFS:

 

ZFS ist in einem Zwischenstadium bei Unraid. Das wurde immer wieder kommuniziert und sollte jedem klar sein. Mit 6.13 erwarte ich eine voll umfängliche Unterstützung für ZFS.

 

  • Like 1
Link to comment

Alles gut 🙂

 

Ich habe Unraid tatsächlich auch nicht gekauft, um der CLI vorgaukeln zu müssen, hier säße ein voller Linux-Admin. Aber an dieser Stelle muss die webGUI wohl noch etwas reifen (oder ich hätte halt das Skript von Spaceinvador One anwerden sollen...). Da ich gerade einsteige und 6.13 in den Startlöchern steht, wollte ich allerdings die Weichen richtig stellen, bevor ich dann wieder das ganze FS umstellen muss, und gleich ein stimmiges Konzept mit Snapshots usw. aufziehen.

 

Aber stimmt, wer Teilimplementierungen nutzt, muss halt auch mit etwas ruckeligem Fahrwerk rechnen... 🤷‍♂️

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.