Unraid - macht das für mich Sinn ?


schubdog

Recommended Posts

Ahoi,

 

ich habe aktuell einen kleinen Homeserver mit OMV 5 im Betrieb und bin jetzt im Rahmen einer Aufrüstaktion am überlegen auf Unraid zu wechseln. Hier mein aktueller IST Zustand:

 

Hardware NAS:

 

  • Intel i3 8100F
  • Asus P11C-M/4L Mainboard mit ASMB9-iKVM Modul
  • 16 GB Kingstom DDR 4 2666 ECC Speicher
  • BeQuiet PurePowe 11 500W 
  • Dell Perc H310 RaidController geflasht auf LSI 9211-8i IT Mode
  • WD Green 240GB SSD
  • 4x WD Red 3TB
  • 4x WD Green 3TB auf RED geflasht
    • 2x Platten als Parity und 6 Platten als Daten via Snapraid. Die Datenplatten per Unionfilesystem Plugin als Pool zusammengefasst

 

Software NAS:

 

  • OMV 5.6
  • ECODMS
  • Docker mit: Traefik, Plex, Emby, Sonarr,Radarr, Sabnzb,Vaultwarden

 

 

Bis Dato läuft alles soweit mein OMV "natürlich 24/7". Eigentlich war mal geplant das der Server nur bei Bedarf geweckt wird, aber entweder hat die Fritzbox den Server immer per WOL geweckt oder alle Platten sind immer aktiv gewesen oder sonst was. Hat also nie geklappt und irgendwann war es mir dann zu doof. Vor 10 Jahren hätte ich solange getestet bis es klappt, aber mittlerweile bin ich ein paar Tage älter, hab zwei kleine Kinder und eine tolle Frau, die aber erwartet das immer alles läuft. Ich glaub der ein oder andere kennt das Problem. Parallel hatte ich im Netz noch einen Raspi4 mit Pihole laufen, mittlerweile bin ich aber auf AdGuard umgestiegen. Hinzukommt ein Terra MicroPC mit einem i5-8259U welcher aktuell bei mir als HomeAssistant Server läuft. Seit ich mir eine Fimi 4k Drohne gegönnt habe läuft aber mein Speicherplatz ins Limit, sodass ich gezwungen bin entweder auszumisten oder neue Platten anzuschafen. Ich habe letzteres vor. Gleichzeitig hatte ich vor die CPU gegen einen I3-8100 oder i3-9100 ( eher i3-8100 ) zu tauschen, sodass ich bei Plex mit dem Transcoding keine Probleme habe. Mit 2k bzw. 4k macht Plex auf einer Shield TV via W-lan angebunden keine Spaß.

 

Während ich also Abends an meinem Rechner sitze und nach Festplatten schauen und dabei mir irgendwelche DockerGuides anschaue stoße ich auf Unraid und es weiß zu gefallen. Mein nächster Gedanke ist: OMV 5.6 ist EOL, ich müsste ja eh Upgraden auf 6.0 und Upgraden ist bei OMV nie lustig. Da installiert man lieber alles neu damit es danach läuft und wenn ich eh neuinstalliere warum probier ich dann nicht Unraid aus ?  Und wenn ich eh schon dabei bin, überhaupt keine Zeit hab aber es einfach mal wieder ein geiles Projekt wäre - WHAT IF:

 

Ich mein Setup komplett neu aufstelle und zwar wie folgt:

 

 

24/7 Server:

 

  • TerraMicro PC i5-8259U

 

Software 24/7 Server:

  • Docker mit: Traefik,Plex,Emby,Vaultwarden,Home Assistant
  • AdGuard Home

 

Unraid Server:

 

 

  • Intel i3 8100F
  • Asus P11C-M/4L Mainboard mit ASMB9-iKVM Modul
  • 16 GB Kingstom DDR 4 2666 ECC Speicher
  • BeQuiet PurePowe 11 500W 
  • Dell Perc H310 RaidController geflasht auf LSI 9211-8i IT Mode
  • 2x WD Green 240GB SSD als CACHE
  • 3x Toshiba MG09ACA 18 TB; 1x Parity und 2x Daten als Pool

 

Unraid Software:

 

  • Docker mit Ecodms,Sonarr,Radarr, Sabnzbd,Hydra2 

 

 

Die Idee dahinter ist also meinen aktuell HomeAssistant Server umzufunktionieren. Der läuft ja eh 24/7.  Mit Adguard drauf kann ich schonmal den PI 4 rauswerfen und verkaufen. Vaultwarden brauche ich täglich, daher hau ich das auch drauf und mache es mir über Traefik als Reverse Proxy verfügbar. Da der i5-8259U von der Performance leicht besser als ein I3-9100 ist, lasse ich auch Plex hier laufen und spare mir dann den Prozessortausch auf dem Unraid Server. Meine Hoffnung ist natürlich, dass ich es bei Unraid eingestellt bekomme, dass mein Unraid Server nur geweckt wird wenn zugriff besteht und auch nur die Platten geweckt werden welche gebraucht werden. 

 

Und jetzt kommt Ihr 🙂 

 

Nachdem ich mein halbes Leben vor Euch ausgebreitet habe - seht es als Vorstellung meinerseits - würde ich mich über Feedback freuen. Daumen hoch oder runter für mein vorhaben ?  Wo seht Ihr Probleme und wo Verbesserungsmöglichkeiten.

 

Sollte der Tenor Daumen hoch sein,  ist die nächste Frage die der Migration. kann ich auf einem anderen Rechner Unraid auf den USB Stick installieren, die neuen Platten dort schon einbinden, alle Daten per FTP dann rüberschaufeln und anschließend den Unraid Stick in den alten Server und die Platten dran und los gehts ?

 

Gruss

 

Schubdog

 

 

 

 

 

 

 

 

 

 

 

Link to comment

Ich würde alles auf einen unRAID Server reduzieren und gut ist. Die Platten stehen dann eh. Allerdings hast du dir mit dem Board einigen Hürden auferlegt:

- nur 6x SATA

- C242 Chipsatz = keine iGPU nutzbar

 

Das Supermicro X11SCH-F wäre die deutlich bessere Option (8x SATA und C246 Chipsatz).

 

Bei einem einzelnen Server könnte der HA in eine VM und Adguard in einen Docker.

 

Ansonsten dann die HBA Karte weg und die SATA SSDs gegen ordentliche NVMe ersetzen, die auch was größer sind.

Link to comment
2 hours ago, mgutt said:

Ich würde alles auf einen unRAID Server reduzieren und gut ist. Die Platten stehen dann eh. Allerdings hast du dir mit dem Board einigen Hürden auferlegt:

- nur 6x SATA

- C242 Chipsatz = keine iGPU nutzbar

 

Das Supermicro X11SCH-F wäre die deutlich bessere Option (8x SATA und C246 Chipsatz).

 

Bei einem einzelnen Server könnte der HA in eine VM und Adguard in einen Docker.

 

Ansonsten dann die HBA Karte weg und die SATA SSDs gegen ordentliche NVMe ersetzen, die auch was größer sind.

 

Ahoi,

 

argh das mit dem 242 Chipsatz hatte ich nicht auf dem Schirm, hab das Board 2019 für 139,00 € mit KVM Modul abgestaubt gehabt und mein Asrock C2750D4I in Rente geschickt. Daher auch noch die HBA, da das Asrock Stabilitätsprobleme mit 8 Platten hatte. Dann ist aber für den Moment der Weg für mich klar und ich werde zweigleisig fahren müssen, da die 380 € noch für ein neues Mainboard definitiv nicht drin sind. Die 240 SSD fliegt raus, das hab ich nicht geschrieben, wollte Sie durch 2x WD Blue SN570 1TB ersetzen. Da bin ich dann insgesamt für  Platten bei HDD und SSD bei 997,00 € das ist dann genug für diesen Monat. 

 

Wenn Du die Frage erlaubst: HA in eine VM hätte für mich welchen Vorteil ? Ich kenne mich mit VM nicht aus und müsste mich da dann erst wieder einarbeiten. Geht es hier darum, dass ich dann das Home Assistant OS nebst Addons nehmen kann oder welchen Vorteil hätte ich gegenüber einem Docker Container ? Mir ist klar, dass ich beim Docker Container mir Zwave, Node Red etc. zusätzlich als Docker Container hinzufügen muss

 

 

 

 

 

 

Link to comment

Ne die ein zwei Sachen würde ich über Container abgedeckt bekommen. Ich denk ich probier das jetzt einfach mal mit der 30 Tage Testverion von unRaid und schaue dann weiter. Wenn ich es richtig verstanden habe, bau ich jetzt die neuen HDD's in meinen alten Server und lasse von USB Stick booten. Dann müsste ja unRaid starten. Mit den neuen Platten bilde ich dann ein Array und über das unassigned devices plugin mounte ich mir meine alten Datenplatten und schiebe die Daten via Krusader auf das neue Array. Danach alte Platten und HBA raus sowie neue SSD's rein und mit den zwei SSD's einen RAID 1 Pool gemacht, der dann der Cache Pool ist. Korrekt ?

Link to comment

Plex würde ich in der Tat auf dem MicroPC aufsetzten und das Diskshare von Unraid dann fest einbinden. Ich hab den Server bei mir im Keller stehen und wenn ich da jetzt HomeAssistant draufpacken würde, dann fallen mir die Zwave Geräte aus da zu wenig Reichweite. Ich hab zwar gelesen ich könnte z.B. mit meinem Raspberry Pi im Wohnzimmer einen zweite HomeAssistant Instanz laufen haben und die Zwave Geräte per MQTT an der "Zentrale" verfügbar machen, aber dafür steck ich da nicht genug drin und die Guides dazu haben mich nicht weitergebracht. Werde also Temporär mit zwei Geräten arbeiten und schauen ob ich bei Gelegenheit günstig an ein anderes Mainboard komme. So das Gigabyte C246m-WU4 konnte ich gerade für 188 € über Amazon UK kaufen. Hoffe damit diesmal das passende Mainboard erwischt zu haben 🙂

Edited by schubdog
Link to comment
9 hours ago, mgutt said:

Krusader brauchst du nicht mehr, da es jetzt ein File Explorer Plugin gibt. Geht nun direkt in der GUI.

Persönliche Meinung:

Das FileExplorerPlugin ist gut wenn nur ein paar kleine Sachen erledigen will und bereit ist dafür viel herum zu klicken.

Ähnlich wie bei dem DateiExplorer in Windows. Auch ist dei bedienung mit wenig oder gar keiner Mausenutzung kaum möglich.

Krusader oder auch MC sind aber weitaus leistungsfähiger und auch wenn ich das FilePlugin ab und zu für eben kleinste Sachen (mal eben eine Datei kopieren oder so) nutze, wird es mühseelig und nervig, wenn man dann doch gleich mehr machen will.

Ich sehe nicht, dass das FileExplorerPlugin zumindest meinen Dateimanagerbedarf auf unraid wirklich ausreichend abdecken kann.

Link to comment
15 minutes ago, DataCollector said:

Das FileExplorerPlugin ist gut wenn nur ein paar kleine Sachen erledigen will und bereit ist dafür viel herum zu klicken.

 

Meine Meinung: Keine GUI kommt auch nur ansatzweise an einen klassischen Norton Clone wie MC heran. Egal ob TotalCommander unter Windows oder MC unter Linux - Tastenbedienung schlägt Mausbedienung um Welten - zumindest in dieser Programm-Kategorie. ABER: Es liegt auch daran welche Erfahrungswerte man mitbringt. Musste vor Kurzem in einem Sekretariat kopfschüttelnd Tastenkombinationen schulen. Niemand kannte dort wort-weises vorwärts- bzw. rückwärtsspringen. Von Sätzen oder Absätzen fange ich noch nicht mal an. Einen Satz schnell markieren, ausschneiden, am Ende des nächsten Satzes einfügen, etc. Dort wurde sogar zeichen-weise mit Backtab gelöscht. Was ich sagen will: Wer mit Maus groß wurde, kennt oft die Alternativen nicht.

 

Den File Explorer nutze ich um mal eben etwas zu löschen. Leider lande ich beim direkten Aufruf der Seite zumeist auf dem Login Dialog - und der reicht mich dann nicht weiter. Das wiederum ist Unraid-Steinzeit.

 

  • Like 1
  • Upvote 1
Link to comment

Moinsen,

 

jetzt muss ich aber nochmal nachfragen. Hab jetzt meinen Unraid Server aufgesetzt und bin gerade die zwei 18TB Platten am befüllen. Ich hab die Shares so eingestellt,dass direkt auf das Array geschrieben wird. Sobald alle daten drauf sind, stell ich dass dann um. Die Parity hab ich auch nicht drin, da er mir bei leeren Platten bereits 18 Stunden SYNC Zeit angegeben hat. Ich dachte da kann ich es auch gleich befüllen und danach den Sync laufen lassen. Hoffe das passt so.

 

Was mir jetzt aber komisch vorkommt, ich hab bin gerade am die dritte Platte am kopieren und hab etwa 7 TB geschrieben und er schreibt immernoch auf der ersten Platte.

 

 

Ist das richtig ? Eingestellt ist High Water mit Level 3.   Anbei meine Ordnerstruktur. 

 

Ich bin davon ausgegangen, dass er mittlerweile bereits auf die zweite Platte schreiben müsste. So wie ich es Verstanden habe müsste er bei meinen Einstellungen auf beiden Platten z.B. TV Serien haben, aber die Staffeln sind als solche dann verteilt auf. Hab ich einen Denkfehler ? 

 

 

 

 

 

unraid1.png

unraid2.png

unraid3.png

Link to comment

Ahoi,

 

er hat jetzt etwa 10 GB von 16 geschrieben und bisher sind auf der Disk2 100GB und ist jetzt mit meiner Fünften Platte wieder dabei Disk1 zu füllen. Macht es Sinn den Splitlevel umzustellen oder Alloc method ? Ist ja eigentlich nicht gut wenn er mir die erste Disk jetzt fast komplett voll ballert

Link to comment
1 hour ago, schubdog said:

Ist ja eigentlich nicht gut wenn er mir die erste Disk jetzt fast komplett voll ballert

Wer sagt das? Warum soll das nicht gut sein? Soweit ich sehe liegen da nur Medien drauf oder?

Und selbst wenn die Platte zu 99% voll ist, ist es bei eineum Use Case wie einem NAS egal, du solltest aber mal lieber "Minimum Free Space" angeben (sollte immer mindestens so groß sein wie die größte Datei die du dort hinkopieren willst, normalerweise sollten 100GB reichen, das ist übrigens auch dann der Platz den er lässt wenn du die Platte randvoll anfüllen würdest.

 

1 hour ago, schubdog said:

Macht es Sinn den Splitlevel umzustellen oder Alloc method ?

Lass es auf High Water, hast du mit der Allocation method schon herumgespielt?

 

High Water ist meiner Meinung nach, für ein Datengrab wie es die meisten hier haben, richtig.

 

1 hour ago, schubdog said:

10 GB von 16 geschrieben

Ich vermute du redest von TB... Eigentlich sollte er eine Platte mit 9TB befüllen, dann die andere bis 9TB und dann wird wieder die erste mit weiteren 4,5 dann wieder die 2. mit weiteren 4,5 danach kommt wieder die 1. mit 2,25 dran und dann wieder die 2. mit 2,25 usw...

Link to comment
2 hours ago, ich777 said:

Wer sagt das? Warum soll das nicht gut sein? Soweit ich sehe liegen da nur Medien drauf oder?

Und selbst wenn die Platte zu 99% voll ist, ist es bei eineum Use Case wie einem NAS egal, du solltest aber mal lieber "Minimum Free Space" angeben (sollte immer mindestens so groß sein wie die größte Datei die du dort hinkopieren willst, normalerweise sollten 100GB reichen, das ist übrigens auch dann der Platz den er lässt wenn du die Platte randvoll anfüllen würdest.

 

Lass es auf High Water, hast du mit der Allocation method schon herumgespielt?

 

High Water ist meiner Meinung nach, für ein Datengrab wie es die meisten hier haben, richtig.

 

Ich vermute du redest von TB... Eigentlich sollte er eine Platte mit 9TB befüllen, dann die andere bis 9TB und dann wird wieder die erste mit weiteren 4,5 dann wieder die 2. mit weiteren 4,5 danach kommt wieder die 1. mit 2,25 dran und dann wieder die 2. mit 2,25 usw...

Ich hatte irgendwo mal im Kopf, dass man es vermeiden sollte eine HDD auf 95% und mehr zu befüllen, da dann der Lesekopf ggf. immer am Anschlag ist. Kann aber auch "HörenSagen" sein.

 

Die Alloc hab ich bis jetzt Unverändert auf High-Water gelassen. Habe während des Kopierens aber mal getestet was passiert, wenn ich den FreeSpace auf 7TB hochsetze um zu erzwingen, dass er auf die zweite Disk schreibt. Hat er aber nicht gemacht. Er hat weiterhin auf die erste geschrieben,so dass ich auf Disk1 jetzt noch 6 TB frei habe und an die letzte Disk zum kopieren kommen. Habe auch extra geprüft ob ich nicht ausversehen direkt auf die Disk1 geschrieben habe, aber via Krusader kopiere ich von //mnt/disks/Disk5 auf //mnt/usr und dort dann in den media Ordner welcher als Share freigegeben ist. Erscheint mir schon sehr komisch. 

Link to comment
5 minutes ago, schubdog said:

Ich hatte irgendwo mal im Kopf, dass man es vermeiden sollte eine HDD auf 95% und mehr zu befüllen, da dann der Lesekopf ggf. immer am Anschlag ist. Kann aber auch "HörenSagen" sein.

Und warum ist der Lesekopf auf Anschlag bei 95%? :D

Also wenn bei einer Festplatte der Lesekopf nicht die ganze Festplatte erreicht ist irgendwas falsch. Dann wäre die Festplatte mal besser ein drehendes Präsentierteller geworden und keine Festplatte wenn die ein Problem damit hat...

 

Jokes aside du hast sicher mal gehört das man 90 bis 95% füllen kann wenn man die Platte für Windows oder irgend ein Betriebssystem nutzt kann das sein, das ist schon eher realistischer aber das ist ein ganz anderer Use Case.

 

9 minutes ago, schubdog said:

Die Alloc hab ich bis jetzt Unverändert auf High-Water gelassen. Habe während des Kopierens aber mal getestet was passiert, wenn ich den FreeSpace auf 7TB hochsetze um zu erzwingen, dass er auf die zweite Disk schreibt. Hat er aber nicht gemacht.

Während des kopierens geht gar nichts, da musst du wie @mgutt schon richtig schrieb das Array einmal aus und an machen, den Server neu starten bzw. den Kopiervorgang abbrechen und dann wieder weiter machen.

Link to comment
23 minutes ago, ich777 said:

Und warum ist der Lesekopf auf Anschlag bei 95%? :D

Also wenn bei einer Festplatte der Lesekopf nicht die ganze Festplatte erreicht ist irgendwas falsch. Dann wäre die Festplatte mal besser ein drehendes Präsentierteller geworden und keine Festplatte wenn die ein Problem damit hat...

 

Jokes aside du hast sicher mal gehört das man 90 bis 95% füllen kann wenn man die Platte für Windows oder irgend ein Betriebssystem nutzt kann das sein, das ist schon eher realistischer aber das ist ein ganz anderer Use Case.

 

Während des kopierens geht gar nichts, da musst du wie @mgutt schon richtig schrieb das Array einmal aus und an machen, den Server neu starten bzw. den Kopiervorgang abbrechen und dann wieder weiter machen.

Das mit dem Lesekopf hat mich jetzt fertig gemacht 🙂 und hab es nochmal gegoogelt. Das ist jetzt aus einem Wer weiß was ding rauskopiert aber so ähnlich kannte ich das auch

 

 

Bezüglich meiner anderen Baustelle danke für den Tip. Bei OMV hat sich so eine änderung on the Fly ausgewirkt. Ich hab jetzt mal die 100GB freespace eingestellt, aber den Level gelassen. Mal gucken ob es jetzt klappt

 

 

Screenshot_3.png

Link to comment
33 minutes ago, schubdog said:

Das mit dem Lesekopf hat mich jetzt fertig gemacht 🙂 und hab es nochmal gegoogelt. Das ist jetzt aus einem Wer weiß was ding rauskopiert aber so ähnlich kannte ich das auch

Vergiss das mit dem Lesekopf und generell das Bild das du gepostet hast, das betrifft drehende Platten, sprich HDDs, die für ein Betriebssystem verwendet werden...

Bei einem NAS Einsatz bzw. Datengrab wie die meisten es hier verwenden greift das nicht mal ansatzweise.

Link to comment
2 hours ago, schubdog said:

Das mit dem Lesekopf hat mich jetzt fertig gemacht 🙂 und hab es nochmal gegoogelt. Das ist jetzt aus einem Wer weiß was ding rauskopiert aber so ähnlich kannte ich das auch

Naja, das betrifft aber eben den Punkt, daß eine Festplatte die Daten eben fragmentiert.

Wenn einen das stört, kann und darf man gerne mal eine Defragmentierung anstoßen, wenn das System sich sowieso langweilt.

 

Bei 95% maximaler Befüllung und beispielsweise einer 10 TB Festplatte sind dann noch summiert ca. 500GB noch frei. Selbst wenn sich das auf viele Bereiche verteilt und vielleicht der größte Freibereich nur 1/10tel so groß ist: Wie groß sollten die neu aufzukopierenden Dateien denn sein, daß es den Festplattenkopf übermäßig beansprucht?

 

Auch betrachte ich dabei, daß unraid als NAS ja meist doch eher für Datenlagerung benutzt wird. Wenn sich ständig alle Daten ändern wird die Fragmentierung bestimmt ärgerlich. Aber meist schreibt man ja einmal den Grundstock an Dateien auf und liest den meist. Wenn man wirklich imemr wieder den Grundstock vereinzelt löscht und dann das OS kleinere Dateien in den neuen freien Platz schreibt, kommt es seeehr viel später zur fragmentierung, weil man schon erkannt hat, dass es mehr sinn macht Dateien nicht zu splitten, sondern in noch vorhandene ausreichend große Bereiche zu schreiben. Ja, irgendwann wird dann fragmentiert, weil die zu schreibende Datei größer aös der größte freei Bereich ist, aber selbst wenn man 50GB Images schreibt, sollte das bei der beispielhaft angenommenen 10TB Festplatte eher später der Fall sein. Und dann darf man eben gerne eien Defragmentierung anstoßen, wenn einem die 2 Sekunden extra beim Lesen wirklich stören.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.