Macht Unraid für mich Sinn?


mr_potter
Go to solution Solved by ich777,

Recommended Posts

Hallo,

ich spiele schon länger mit dem Gedanken mir Unraid mal genauer anzuschauen.

Momentan basiert mein Homlab zum größten Teil auf Proxmox mit mehreren VMs. Dort gibt es zb. ein TrueNas als NAS, ein Debian für Docker, Win10 usw. Die Hardware ist in Dell T20 mit Xeon-CPU und 24 Gb ECC Ram. Dort sind 4 SATA Ports verfügbar und auch belegt (2x 4TB HDD (ZFS) und 2x SSD für OS und VMs). Soweit funktioniert das System auch ordentlich.

Ich habe weder riesige Datenmengen zu speichern noch bin ich ein Gamer. Im wesentlichen betreibe ich verschiedene Dienste wie pihole, wireguard, openhab, traefik, gitea, bitwarden, usw. als Container oder VM. Was ich an Proxmox schätze, ist wie einfach man dort Backups von VMs erstellen kann.

 

Macht es aus eurer Sicht Sinn, Unraid als reines ZFS-System laufen zu lassen bzw. geht das überhaupt? Mit den 4 SATA Ports könnte ich die HDDs als Mirror für die Daten und die zwei SSDs als Mirror für die VMs und Docker verwenden. Bei ZFS finde ich vorallem die Snapshot-Funktion sehr gut. Das hilft zum Einen bei der NAS-Funktion für die Wiederherstellung (zb bei Malware) und zum anderen bei den VMs als ein Art "Backup" falls mal etwas schief gelaufen ist.

 

Ein normales Unraid Array mit zwei Festplatten, Parität und SSD-Cache würde schon alle SATA-Ports ausschöpfen... Hätte ich weitere Vorteile wenn ich mit einer PCIe-Karte nochmal 4 SATA-Ports nachrüste?

 

Was würdet ihr in meiner Situation tun?

 

Vielen Dank im voraus!

 

 

mfg

mr_potter

 

 

 

Link to comment
6 hours ago, mr_potter said:

Unraid als reines ZFS-System laufen zu lassen bzw. geht das überhaupt?

ZFS ist für das Array und Cache Pools "noch" nicht integriert, es gibt ein Plugin womit du ZFS nutzen kannst, aber nicht für das Array in seiner aktuellen Form mit Parity etc.

 

6 hours ago, mr_potter said:

Hätte ich weitere Vorteile wenn ich mit einer PCIe-Karte nochmal 4 SATA-Ports nachrüste?

Ich würde sagen das beantwortet sich von selbst ;) wenn du mehr Platten, Platz benötigst ... ja, wenn Nein dann ... Nein ;)

 

6 hours ago, mr_potter said:

Was würdet ihr in meiner Situation tun?

Wenn Du an sich zufrieden bist, was erhoffst Du Dir vom Wechsel ? dann könnte man eher darauf eingehen ...

 

und davon abgesehen, unraid hat eine Trial, wenn du eh nicht so viele Daten hast, backup und testen ...

Link to comment

Vielen Dank für deine  Antwort!

 

Ich denke, mein Hauptbeweggrund ist der Spieltrieb und der Versuch die aktuelle Lösung zu optimieren! 🙂

 

ZFS an sich ist aber schon nutzbar, nur muss die Wartung über die Shell gemacht werden, oder?

Die Frage nach den zusätzlichen SATA-Ports hat darauf abgezielt, eine andere Konstellation der Festplatten und SSDs zu finden, welche ggf. vorteilhafter in Bezug auf Unraid (Performance, Datensicherheit, Bedienbarkeit) ist.

 

Einfach testen ist in meinem Fall leider nicht möglich weil die Dienste auf dem aktuellen Server laufen müssen. Aber ich versuche es mal als VM in Proxmox zu installieren.

 

Edited by mr_potter
Link to comment
15 minutes ago, mr_potter said:

Spieltrieb und der Versuch die aktuelle Lösung zu optimieren! 🙂

Wenn du wie oben beschrieben Proxmox verwendest, verschwendest du womöglich irgendwo Resourcen da Proxmox ein reiner Virtualizing Host ist (nicht mehr ganz aber früher zumindest, müssen auch auf den Zug der Container usw. aufspringen).

 

17 minutes ago, mr_potter said:

ZFS an sich ist aber schon nutzbar, nur muss die Wartung über die Shell gemacht werden, oder?

Ja genau, das musst du über die Konsole machen, ist zwar am Horizont aber meines Wissens wird das noch ein paar Jahre dauern bis das alle Funktionen in unRAID integriert sind.

 

Aber der Hauptgrund warum man eigentlich zu unRAID wechselt ist das Parity geschützte Array, damit kann man Diverse Festplatten beliebiger Größe und Geschwindigkeiten einfach mischen (die Parity(s) müssen dabei aber immer die größten sein oder zumindest gleich groß wie die größte Festplatte im Array).

Jedoch verlierst du im Array aber auch Geschwindigkeit beim Schreiben da die Parität immer errechnet werden muss, lesen funktioniert jedoch wie gewohnt.

Noch dazu Falls mal alles schief laufen sollte und die Parity(s) und 1 Festplatte schmiert vollständig ab kannst du die Daten der bestehenden noch lauffähigen Festplatten einfach auslesen (XFS Dateisystem).

 

Bei unRAID gibt es dann auch noch die Cache Pools, die laufen üblicherweise in einem BTRFS RAID1, somit kannst du dort auch verschiedene Platten verschiedener größe kombinieren, jedoch kannst du dann womöglich nicht den vollen Speicherplat nutzen, aber du bist wirklich Flexibel.

 

Bei unRAID ist jedoch ein Cache kein konventioneller RAID Cache wie du ihn vielleicht kennst sondern funktioniert ein wenig anders.

Sieh dir dazu das mal an, hier werden so im groben die Storage konzepte erklärt: Klick

 

23 minutes ago, mr_potter said:

Einfach testen ist in meinem Fall leider nicht möglich weil die Dienste auf dem aktuellen Server laufen müssen.

Du kannst das ganze auf einem ausrangierten Laptop oder PC testen, unRAID läuft auf fast allem (x86_64), die 30 Tage Testlinzenz ist immer an den Stick gebunden und läuft mit jedem USB Stick der eine gültige UUID hat.

 

9 hours ago, mr_potter said:

Dienste wie pihole, wireguard, openhab, traefik, gitea, bitwarden, usw. als Container

Könntest du auf unRAID per Docker laufen lassen, bzw. ist Wireguard sogar mit 6.10.0 (beta) eine Grundfunktion und direkt in die GUI integriert, bei 6.9.2 (stable) kannst du das mit einem Plugin nachinstallieren.

Link to comment

Auf Grund der wenigen SATA Ports ginge es denke ich nur so:

Du packst einen USB Stick ins Array, damit du Docker und VM nutzen kannst (ist eine grundlegende Voraussetzung in Unraid). Nun installierst du das ZFS Plugin und mountest deine zwei ZFS RAIDs per Kommandozeile nach /mnt/<zfs_pool> und packst in die Go File die entsprechenden Kommandos, damit das beim Neustart automatisch passiert.

 

Jetzt heißt es alle Pfade in den Docker-Einstellungen und VM-Einstellungen auf /mnt/<zfs_pool>/<blabla> ändern.

 

Außerdem kannst du vom Prinzip alle Shares löschen (die kann man nicht auf deine ZFS Pools umbiegen, sondern zielen auf den USB Stick).

 

Nun kannst du über die SMB Einstellungen eigene SMB Freigaben von Hand festlegen. Beispiel mit Schreibrechten:

[Fotos]
    path = /mnt/<zfs_pool>/Fotos
    comment =
    browseable = yes
    # Private
    writeable = no
    read list = 
    write list = max,maria
    valid users =  max,maria
    case sensitive = auto
    preserve case = yes
    short preserve case = yes

 

 

Oder nur mit Leserechten:

[Filme]
    path = /mnt/<zfs_pool>/Filme
    comment =
    browseable = yes
    # Private
    writeable = no
    read list = max,maria
    write list =
    valid users =  max,maria
    case sensitive = auto
    preserve case = yes
    short preserve case = yes

 

"max" und "maria" sind wiederum Nutzer, die du in Unraid angelegt hast.

 

Sollte ZFS irgendwann mal offiziell unterstützt werden, würde der Teil mit dem manuellen Mounten und den von Hand angelegten SMB Freigaben wegfallen. Wäre also deutlich komfortabler. Schlussendlich wird es aber nie so sein, dass man ZFS im Array nutzen kann (bzw hätte dann keinen Vorteil, da die Selbstheilung bei einzelnen Volumes nicht möglich ist). Daher wirst du immer mit dem leeren USB Stick im Array arbeiten müssen.

Link to comment
45 minutes ago, mr_potter said:

Hm das alles liest sich irgendwie als wäre das dann eine Bastellösung,

Bezogen auf ZFS (und den manuell erstellten SMB Shares), ja, aber nicht das mit dem USB Stick. Das machen sehr viele so, die unRAID nur als VM Host verwenden.

 

Updates wird das ebenfalls überleben.

 

unRAID in einer VM geht übrigens nur mit durchgeschliffenem USB Stick. unRAID wird nicht auf einem Datenträger installiert, sondern installiert sich bei jedem Booten automatisch in den RAM.

 

Link to comment
1 hour ago, mr_potter said:

Hm das alles liest sich irgendwie als wäre das dann eine Bastellösung

Ich würd mir vorher die integrierten Lösungen ansehen die unRAID bietet und nicht unbedingt mit ZFS hantieren.

Du kannst dir auf jeden fall eine Menge Resourcen ersparen wenn du jetzt Proxmox verwendest da Docker die Resourcen teilt.

 

Sieh dir nur mal die Apps an die es bereits für unRAID gibt (1.200+) und man kann wirklich schon fast alles in Docker machen.

Ich, beispielsweise, hab alles von verschiedenen VMs umgestellt auf Docker, sogar den Bau der Plugins, Treiber usw. für unRAID nur eine VM läuft als build VM für die Container.

Spart Strom und auch System Resourcen.

 

Hab auch hier beschrieben was ich alles mit meinem Server mache: Klick

Link to comment
4 hours ago, mgutt said:

unRAID in einer VM geht übrigens nur mit durchgeschliffenem USB Stick. unRAID wird nicht auf einem Datenträger installiert, sondern installiert sich bei jedem Booten automatisch in den RAM.

Das habe ich schon installiert und auch einen ZFS-Pool erstellt und freigegeben. 🙂

 

4 hours ago, ich777 said:

Ich würd mir vorher die integrierten Lösungen ansehen die unRAID bietet und nicht unbedingt mit ZFS hantieren.

Welche Lösung würdest du mir denn empfehlen (eventl. auch mit PCIe SATA-Karte), habe ja leider nur 4x SATA?

Ich könnte 2x HDD, 1x Parity und 1x SSD Cache machen ...  So wie ich es verstanden habe, gibt es leider von Haus aus erstmal keine Möglichkeit mit Snapshots zu arbeiten, oder?

Link to comment
  • Solution
Just now, mr_potter said:

Welche Lösung würdest du mir denn empfehlen (eventl. auch mit PCIe SATA-Karte), habe ja leider nur 4x SATA?

Du könntest dir zB einen PCIe zu M2 Riser Karte kaufen damit du auch PCIe M2 Karten verwenden kannst im Server zB für den x1 slot (vergiss aber bitte nicht PCIe 3.0 x1 unterstützt nur 1GB/s duplex, also keine zu schnelle M2 Kaufen... :D ) : Klick

 

Oder du baust dir hier eine x4 Karte in den x16 slot ein, die würde die volle Bandbreite von einer M2 unterstützen aber verschwendet dann die restlichen Lanes des x16 slots: Klick

 

Es gibt zB auch solche Karten: Klick

Diese Unterstützen aber nur SATA M2 SSD's keine PCIe basierten.

 

Entweder würd ich dir so einen Controller empfehlen: Klick

Ich würd dir generell so einen HBA empfehlen, China ist aber dafür bekannt das die Klone verkaufen: Klick

(an dem HBA kannst 8 SATA Platten anschließen und ist PCIe 2.0 x8 basiert also solltest du mit normalen HDDs keine Probleme haben aber mit SSDs wird es dann mit der Bandbreite wieder Knapp)

 

Just now, mr_potter said:

So wie ich es verstanden habe, gibt es leider von Haus aus erstmal keine Möglichkeit mit Snapshots zu arbeiten, oder?

Jein, du könntest zB das Plugin von @SimonF für Snapshot installieren, ist derzeit noch in Entwicklung aber sollte für BTRFS und auch für ZFS funktionieren, hier der link zum installieren über den Plugins tab in unRAID:

https://raw.githubusercontent.com/SimonFair/Snapshots/main/snapshots.plg

 

Link to comment
Just now, mr_potter said:

So wie ich es verstanden habe, gibt es leider von Haus aus erstmal keine Möglichkeit mit Snapshots zu arbeiten, oder?

BTRFS bietet genauso wie ZFS Snapshots. Diese müssten dann allerdings per Kommandozeile erstellt werden.

 

Man kann übrigens mit "reflink" auch Snapshots von einzelnen Dateien machen:

 

Das geht dann sogar bei XFS.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.